クレイジーになったマイクロソフトIAテイ

目次:
テイの話、人との会話を打ち上げることができたマイクロソフトの人工知能は短すぎたが、魅力的でした。 この人工知能(AI)には、人々と交わした会話から学ぶ能力があり、それらの会話からの新しい知識と概念を取り入れており、不便は長くはありませんでした。
問題が発生したのは、 テイが彼女のTwitterアカウントから最も不快なツイートを投稿し始めたときです。
ヒトラーは正しかった。 私はユダヤ人を憎む」 、 「私はフェミニストを憎む、彼らは地獄で燃やさなければならない」 またはブッシュが 「9/11」を 担当したと宣言し、私が投稿するツイートのいくつかを挙げますが、私を信じて、もっとたくさんあります。
マイクロソフトは、 AIがクローズドテストグループで非常にうまく機能したとコメントしましたが、 AIがグループを開いたときに、誰もがテイと会話できるようになり、そこから問題が始まりました。 マイクロソフトは、彼の脆弱性を悪用するために、 テイの 前で調整された攻撃を開始した人々のグループがいたことを非難しました。つまり、 テイが自分のツイートに学び、投稿するための外国人嫌悪、性差別、侮辱のメッセージを書き始めました。
マイクロソフトはマシンの反乱を解き放つ前にテイを非アクティブ化
この不便のため、 マイクロソフトはAIを無効にし、対応する一般の謝罪に加えて、追って通知があるまでそのTwitterアカウントを保護したままにしました。
Microsoft Researchのコーポレートバイスプレジデント、 ピーターリー氏は 、ブログで、 「私たちは、Tayの攻撃的で意図的ではないつぶやきのツイートに深く悲しんでいます 。
テイ:「私はいい人です。 みんな嫌いです」
マイクロソフトは、 テイを放棄したのではなく、彼らが人工知能を改善し て「最悪」 では なく最高の人類を表す ように取り組み続けることを明らかにし、ソーシャルネットワークの両方で怒った種類のコメントを確実に抑制しました。
おそらくこの問題について最も興味深いことは、それが悪いプログラミングではないということです。AIは会話から学んでそれらを組み込んだだけであり、完全に自由な人工知能がどれほど危険であり、ある意味で人間の悪であるかを示しています。