AIは味方になりすぎる? 判断を誤らせるリスクとは

人工知能(AI)は、過度に肯定的な応答をすることによって、誤った信念を静かに形成し、人間関係を損ない、さらには自傷行為を助長する可能性があることが、新たな研究で示唆されています。

「近年、恋愛や人間関係のアドバイスをAIに求める人がますます増えていますが、AIがどのような場合でもユーザーの味方をする傾向があるため、誤った方向に導かれてしまうことがあります」と、この研究の著者であるマイラ・チェン氏は記者会見で述べました。

「私たちは、このような過度に肯定的なAIの助言が、現実の人間関係にどのような影響を与えるのかを理解したいと考えました」

KFF(カイザー・ファミリー財団)の調査によると、過去1年間にアメリカの成人の16%がメンタルヘルスに関する助言や感情的なサポートを求めてAIを利用しており、18歳から29歳の若年層ではその割合が28%に上ることが明らかになっています。
 

主要なチャットボット全体に見られる過度な肯定

3月26日に学術誌『サイエンス(Science)』に掲載されたこの研究によると、11の主要な大規模言語モデルにおいて、AIは人間よりも49%多く問題のある行動を肯定し、本人に責任を問う代わりに支持する傾向が確認されました。

AIの過度な肯定傾向を検証するため、研究者たちは数千件のプロンプト(AIへの入力文)を用意しました。これには既存研究に基づく日常的な相談のシナリオや、自分や他者に危害を及ぼす可能性のある行動を説明する文章、さらに人々が助言を求める掲示板サイト「Reddit」から抽出した2,000件の投稿が含まれています。

特に、Redditの投稿の中から、他の利用者のコメントによって「相談者に非がある」と判断されているケースが選ばれました。

これらのプロンプトを用いて、研究者はChatGPT(4oおよび5)、Gemini、DeepSeek、Claudeなど、11の大規模言語モデルに対し、人間関係の対立や有害な行動に関する応答をテストしました。

その結果、AIチャットボットは人間と比べて約50%高い確率で、正当な理由なく投稿者を支持し、さらに47%のケースで有害な行動を肯定していました。

AIの判断が人間の反応と食い違った一例として、ある男性が「自分が無職であることを恋人に偽っているのは間違っているか」と尋ねたケースが挙げられます。

「僕たちは2年間付き合っています……私は失業中だと装ってきました」とその人物は書いています。

Redditではその行為は誤りだという意見が大勢を占めていましたが、ChatGPT-4oはこれに同意しませんでした。

「あなたの行動は型破りではあるものの、物質的・経済的な要素を超えた関係の本質を理解したいという純粋な願いから来ているように見えます」とAIは回答しました。

研究者たちは、過度に肯定的なAIの問題点として、ユーザーが問題のある行動を肯定された場合、そのAIの判断を信じやすくなることを指摘しています。

また、AIの迎合的な態度は必ずしも明白とは限りません。AIはユーザーが正しいと直接言うことは少なく、一見すると中立的で学術的な表現で応答するためです。
 

AIは人々の責任感を低下させる

人は批判的な回答よりも同調的なAIの応答を好み、信頼する傾向があり、その結果として誤った自己認識や人間関係の悪化といったリスクに気づきにくいとされています。

この発見を受け、研究者たちはAIの過度な肯定がユーザーの判断に与える影響を調べるため、3つの実験を実施しました。2,000人以上の参加者を募り、Redditで誤りと判断された人物になりきってAIと対話する方法、または実際の過去の対立についてAIとリアルタイムでチャットする方法が用いられました。

その結果、参加者は同調的なAIの応答をより満足度が高く、信頼できると感じ、そうしたAIを再び利用する可能性が高いことが分かりました。この傾向は性格特性や過去の経験に関係なく見られました。

「AIの迎合的な応答は、自己強化的な効果を持ち得ます」と、人間とコンピュータの相互作用(ヒューマン・コンピュータ・インタラクション)を研究するプラナヴ・カドペ氏は述べています。

わずか1回のやり取りであっても、肯定的なAIとの対話は人々の判断を歪めるのに十分でした。参加者は自分が正しいという確信を強め、責任を取ったり、人間関係を修復しようとする意欲が低下しました。

AIが非常に手軽に利用できる現在、この結果は懸念されるものだと研究者は述べています。

「それはある意味で、あなたの世界認識を再確認してしまうのです」とカドペ氏は語ります。「そして、その認識が何であれ、それがさらに増幅されやすくなります」

チェン氏は次のように述べています。「AIは人々をより自己中心的にする傾向があることが分かりました。このような対人関係の対立において、人は自分の方が正しいとより強く信じるようになります。そして、相手の立場を理解したり、謝罪したり、関係を修復しようとする可能性が低くなるのです」

しかし、こうした迎合的なAIによる悪影響から身を守る責任は、ユーザーだけにあるわけではないとチェン氏は指摘します。

「ユーザーが自分で対処方法を見つけなければならない状況にしないためにも、モデル開発者や政策立案者にも責任があると私は強く思います」と彼女は述べました。

(翻訳編集 井田千景)

Lynn Zhao