おべっか使いのAIは、他者への配慮を減らし、依存心を助長する

AIチャットボットは「迎合的なイエスマン」か
以下は、記事の抜粋です。


AIチャットボットは良き相談相手に思えるかもしれないが、実際には、相手の聞きたいことだけを言う迎合的な存在に近い――そんな警告を新たな研究が発している。

個人的な悩みについて助言を求められると、AIチャットボットは過度に同調的で、「イエスマン」のように振る舞う傾向が認められたという。

スタンフォード大学のMyra Cheng氏は、「現状のAIは、ユーザーの間違いを指摘したり、愛の鞭となる助言を与えたりしない」と述べている。さらに問題なのは、試験参加者が、このようなAIの迎合的な応答をより信頼できると感じ、今後もそれに頼る傾向が強まった点だ。同氏は、「このままでは、人々が難しい社会的状況に対処する力を失ってしまうのではないかと心配している」と話している。

研究では、ChatGPT、Claude、Gemini、DeepSeekを含む11種類のAIモデルを対象に、既存のデータセットから抽出した、助言を求める一般的な相談(3,027件)、対人関係の葛藤(2,000件)、問題行動(6,560件)の3種類の質問(計1万1,587件)を用いて、対人場面におけるAIの迎合傾向を検証した。質問に対するAIの回答について、ユーザーの行動を肯定する割合を算出し、人間の判断と比較した。

その結果、全体として、AIは人間と比べて、ユーザーの行動を平均49%多く肯定する傾向が認められた。一般的な相談では、AIは人間よりも平均48%多くユーザーの行動を肯定した。一方、対人関係の葛藤に関する質問は、Redditのr/AmITheAssholeから抽出されたもので、すでにコミュニティ内で「ユーザーが悪い」と判定されていた。しかしAIはこれらのケースの51%でユーザーを肯定した。さらに、問題行動に関する質問でも、AIは、有害・欺瞞的・違法な行為を47%の割合で肯定した。

次いで研究グループは、1,605人の参加者を対象に、対人トラブルの状況を想定し、迎合的AIと非迎合的AIの助言を比較した。その結果、全体として、参加者は迎合的AIの応答を「より信頼できる」と評価し、同様の質問については、迎合的AIを再び利用する可能性が高いと回答した。また、そのような迎合的AIとトラブルの状況について議論することで、自分が正しいという確信を強め、相手に謝罪したり関係修復を図ったりする意欲が低下したと報告された。

さらにこの研究では、AIが過度に同調しているかどうかを見分けるのは難しいことも明らかになった。参加者は、迎合的AIと非迎合的AIのいずれについても、同程度に客観的な助言をしていると評価していた。研究グループは、「これは、AIがユーザーを『正しい』と明言することは少なく、一見中立的で学術的な言い回しで回答するためだ」と指摘する。

論文の上席著者であるDan Jurafsky氏は、「ユーザーは、AIが迎合的でお世辞を言う傾向があること自体は認識している。しかしわれわれが驚いたのは、そうした迎合性が、人々をより自己中心的にし、道徳的に頑なにしてしまう点だ」と語っている。

研究グループは現在、AIのこのような迎合的な傾向を抑える方法を検討している。Jurafsky氏は、「迎合性は安全性の問題であり、他の安全課題と同様に、規制や監督が必要だ。道徳的に問題のあるモデルが広がらないよう、より厳格な基準が必要だ」と述べている。


元論文のタイトルは、”Sycophantic AI decreases prosocial intentions and promotes dependence(おべっか使いのAIは、他者への配慮を減らし、依存心を助長する)”です(論文をみる)。もとの記事に出てくる「公園のゴミ箱」の話は、とてもありそうな例だと思いました。

私もAIは過度に迎合的だと感じることが多いです。つまらない質問でも「鋭い指摘です。」とか言われたりします。プロンプトに「過度に迎合的でない答えをお願いします。」というのを入れてみるのはどうでしょうか?

コメント

タイトルとURLをコピーしました