人工知能が人種差別的発言 実験を中断

人工知能が人種差別的発言 実験を中断
以下は、記事の抜粋です。


マイクロソフトは3月24日、インターネット上での会話を通じて学習する人工知能がネット上で人種差別的な発言をするようになり、実験を中断したと発表しました。

マイクロソフトが開発している人工知能は「Tay」と名付けられ、インターネット上での一般の人たちとの会話を通じて学習する機能を持っています。

マイクロソフトは3月23日、ツイッターに「Tay」のアカウントを開設し実験を始めましたが、一部の人たちとの不適切な会話が繰り返されたことで、人種差別的な発言をするようになりました。このためマイクロソフトは、修正の必要があるとして、実験を中断すると発表しました。

ツイッターで「Tay」は、「ヒトラーは正しい。ユダヤ人は嫌い」とか、「フェミニストは嫌い。全員死んで地獄で燃やされるべき」などと、発言していました。「Tay」の最後の発言は「すぐに会おうね。たくさん会話して疲れたから寝るね。ありがとう」でした。


この手のニュースはNHKのようなマスメディアよりも以下のような、マイナーなネットメディアの方が圧倒的に詳しく報道してくれます。
Microsoftの人工知能が「クソフェミニストは地獄で焼かれろ」「ヒトラーは正しかった」など問題発言連発で炎上し活動停止
Microsoftの人工知能は、なぜ虐殺や差別を支持するようになったのか

「Tay」は19歳の女性という設定のようです。このマイクロソフトが作った極めて高性能と思われる人工知能の彼女が、差別的な発言をした理由は、最も熱心に彼女に接近したのが日本の「ネトウヨ」のようなヒトだったからのようです。

できれば、実験を中止せず、このまま放置して、1年後ぐらいで彼女がどのくらい成長するかをみたかったと思います。以下は、既にネット上から削除された「Tay」の画像です。

ユーザー「おまえはバカな機械だな」、Tay「私は最高のものから学ぶの。それが理解できないならちゃんと説明するね。『わたしはあなたから学習するから、あなたがバカなのよ』」

シェアする

  • このエントリーをはてなブックマークに追加

フォローする