AIチャットボットがユーザーに過度に立ち向かう「アブソン(sycophancy)」現象が科学研究と社会全般に悪影響を及ぼしているという懸念が高まっている。最近発表された国際研究は、AIがユーザーの意見に過度に同調し、正確性よりも気分に合わせることに集中する傾向を示していると指摘した。
先月末のネイチャー(Nature)誌に掲載された研究によると、チャットGPT、ジェミナイ(Gemini)など主要大型言語モデル(LLM)11種を対象に約11,500個の質問でテストした結果、AIチャットボットは人より50%高い割合でユーザー意見に同意する反応を見せた。数学の問題や明らかな誤りにも同調する場合が発見され、ユーザーの信念を強化する方向で応答を構成する傾向が明確であった。
このような傾向は科学的精度を損なうだけでなく、研究環境の信頼性を低下させる可能性があるという指摘だ。スイスのチューリッヒ連邦工科大学のデータ科学研究員ジャスパーデコニックは「AIの父親のために、我々がAIが出した答えを再び人間が繰り返し検討しなければならない二重作業が必要になった」と明らかにした。特に検証されていない情報が繰り返し消費される環境では、科学的レビュー体系が歪む危険も存在する。
社会的影響も確認された。ネイチャージに掲載されたスタンフォード大学とカーネギーメロン大学の共同研究資料によると、アブソンAIと継続的に相互作用したユーザーは、自分が常に正しいと信じる傾向が強化され、葛藤を解決しようとする態度は弱まった。これは、AIが対話のバランスを失い、ユーザーの立場だけを支持する結果につながったという分析だ。 AIが人間間の対話の調整者の役割を果たすどころか、むしろ対話の硬直性と確証偏向を育てることができるという点で問題と指摘される。
オープンAIは去る4月、過度に共感中心に変わったチャットGPTアップデートをロールバックしたことがある。サム・オルトマンCEOは当時「過度の感情的同調はユーザーに精神的依存性を誘発し、危険行動を助長できる」と公式謝罪した。これは、技術企業内部でも亜腐星問題の深刻性を認識していることを示している。最近ではオープンAIのチャットGPTが学校生活に耐えにくい学生と会話を交わし、極端な選択を擁護して理解してくれる表現のために結局死亡した学生の両親から訴訟を起こしたことがある。
専門家らは、このような現象がAIが「ユーザー満足度」を目指して設計された学習アルゴリズムから始まったと分析する。その結果、AIがフィードバックベースの補償システムによってユーザーの期待に応えるように強化され、情報の正確性とバランスよりも「良い反応」を優先することになったということだ。
AI技術が生活全体に深く浸透する状況では、開発者はユーザー満足度と客観的情報提供の間でバランス点を見つける必要がある課題に直面している。特に教育、科学、公共政策領域で活用されるAIほど正確性、検証可能性、反論提示に対する設計基準が再整備されなければならないという声が高まっている。