ソーシャルメディアトローリングShitpostsの見込みが良くなってきている

$config[ads_kvadrat] not found

Английские согласные звуки: [p] [b]

Английские согласные звуки: [p] [b]
Anonim

インターネットはトロルが運営する地獄のような景観であり、Facebookの無駄な議論やそれより悪いことに支配されている。そして、ウェブ上のソーシャルメディアの巨人たちは、やがて侮辱的対話をやめようとするより頑健な取り組みを展開し始めたが、これらの解決策は反応的になる傾向があり、言い換えればすでに被害が終わった後に来る。

それで、人工知能の研究者たちが可能なシステムを開発することに熱心であることは驚くべきことではない。 予見する それが起こる前のオンラインの議論。しかしコーネル大学の研究者チームが最近説明したように 逆に、 この緊急に必要とされる技術革新は、未来を語ろうとすることからそれほど遠くない。

「過去には、与えられたコメントが有毒かどうかを検出する作業がありました」とコンピューターサイエンス博士は言います。ジョナサンチャン。 「私たちの目標は少し異なります。現在の一般的な会話が将来いつかは手に負えないかどうかを予測することが可能かどうかを知りたいのです。この問題を探るために、ウィキペディアの編集者間の会話を調べます。

Changと彼の同僚は、時々簡単にイライラするウィキペディアの学芸員の間で送信された何百ものメッセージを分析しました。それから、彼らは1,270の会話を使い、この種の節度を自動化するために機械学習モデルを訓練するために攻撃的なターンを取った。それらの結果は、7月15日に開催された計算言語学会の年次総会で発表された論文に掲載されました。

それでは、「すべて落ち着かせましょう」ボットはどうしたのでしょうか。幸いなことに、それほど粗末ではありません。それは65パーセントの正確さで終わり、人間の72パーセントの成功率よりわずかに低かった。研究者たちは、人々がコメントのモデレートスキルを試すことができるオンラインのクイズを作成することによってこの統計を見つけました。結局のところ、ソーシャルメディアユーザーが暴力を放つのか民衆のままでいるのかを判断するのはかなり困難です。

「たとえば、人間が50%の精度しか得られない場合、この作業は困難ではあるが不可能ではないことを示すことが目的です。これは、ランダムな推測に勝るものではなく、機械を訓練することができると考える理由もありません。チャンは言います。 「私たちのモデルを人間の反応と比較することで、私たちの計算アプローチが人間の直感にどれほど類似しているか、または異なっているかについて、いくつかの洞察が得られました。」

チャンはこれがゴミの話からインターネットを取り除くことを信じていないが、彼はそれを人間のソーシャルメディアの司会者を助ける方法として見ている。 1日に投稿される可能性がある何百万ものコメントに注意を払う必要がある代わりに、それらのアルゴリズムは議論に変わる危険性がある何百ものコメントを識別することができます。

予測できないこれらの潜在的な問題のすべてを解決することでChangに悲しみを感じさせると科学者は言うが、その経験は実際に彼が人類に対する希望を与えていると言う。

「最近、オンラインでの会話を取り巻く多くの悲観論がありますが、ここで私たちが目にしているのは、会話が不愉快なやり方で始まった場合でも、参加者が考えを変えて自分の考えを変えるチャンスがまだあるということですトーンを上げて、会話をより明るい結果に導くために進めます」と彼は言います。 "未来は石に設定されていません。"

結局のところ、インターネットへの希望があるかもしれません。

$config[ads_kvadrat] not found