AIの誤情報を疑うこと無くそのまま受け入れる「認知的降伏」という状態に多数の人が陥っていることが明らかに、1372名の参加者と9000回以上の実験で
以下は、記事の抜粋です。
ペンシルベニア大学の研究チームが、AIの発展によって多くの人間が「AIに全て任せる」という思考プロセスを採用していることを発表しました。
人間の意思決定には大きく2つの仕組みがあるとされています。1つは「素早く、直感的で、感情的な処理」である「システム1」で、もう1つは「ゆっくりした、熟慮的で、分析的な推論」である「システム2」です。
ペンシルベニア大学の研究チームは、AIの登場によって人間の意志決定に新たな「システム3」が出現したとする論文を発表。論文によると、システム3では「人間の心ではなく、アルゴリズムシステムから生じる外部の自動化されたデータ駆動型推論」によって意志決定が行われるとのこと。
研究チームによると、AIが登場したことで、人間が監視や検証をせずAIの推論を丸ごと受け入れる「認知的降伏」を行う場合が出てきたとのこと。チームは「認知的降伏」が特に「AIが自信のありそうな文章をすらすらと出力する」場合によく見られるとも述べています。
研究チームはAIへの認知的降伏を行う人間の割合を調べるため、「AIを使って回答するテスト」を行いました。テストは「直感的なシステム1」の思考プロセスを行いがちな参加者からは誤った回答を引き出すように、「熟慮的なシステム2」の思考プロセスを行いがちな参加者にとっては簡単に正答できるようになっていました。このテスト中、参加者は自由にAIにアクセスすることが可能でしたが、AIは50%の確率で誤った内容を出力するように設定されていました。
実験では参加者の多数がAIを使用しました。AIが正確だった場合、93%の参加者はAIを信じた一方、AIが不正確だった場合でも80%の参加者がAIを信じてしまいました。AIが不正確だったグループは、AIを使わずに脳だけで考えたグループよりも悪いスコアになってしまいましたが、「正しく回答できたと思う」と考える人はAIを使わなかったグループよりも11.7%も多かったとのこと。
別の実験では回答した瞬間に正誤が分かる即時フィードバックを取り入れた上で、正解した数に応じて少額の支払いを行うようにしたところ、参加者がAIの誤った出力を訂正する確率が19%増加したとのこと。しかし、30秒のタイマーを追加して時間的プレッシャーをかけるようにすると訂正する確率は12%減少しました。
1372人の実験参加者全体を通して行われた9500回以上のテスト結果を見ると、人間がAIの誤った出力を訂正する確率はわずか19.7%だったとのこと。研究チームは「人間はAIが生成した出力を意思決定プロセスに容易に取り入れ、多くの場合疑問に思わないことを示している」と述べています。
論文のタイトルは、”Thinking—Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender(思考――速い思考、遅い思考、そして人工的な思考:AIが人間の推論をどのように変容させているか、そして「認知的降伏」の台頭)”です(論文をみる)。
AIに正しい回答を求める場合は、エビデンスを示すことを要求し、ChatGPTとGeminiの両方に同じ問いかけをすることが比較的賢い降伏だと思います。


コメント