生成型人工知能(AI)が人間の文体を完全に模倣する前に、人間の思考体系と脳構造を先に変化させているという研究結果が相次いで発表され、学界と産業界に波長を引き起こしている。
テキスト生成の効率性のためにAIに依存する過程で人間の記憶力と批判的思考力が減退する、いわゆる「認知負債(Cognitive Debt)」現象が具体的なデータで立証されたのだ。これは単に道具の活用法を身につける次元を超えて、技術に依存しない人間固有の思考能力をどのように保存するかについての根本的な質問を投げかけている。
MIT・MSなど「AI依存が高いほど、脳接続性・批判的思考弱化」教育・研究現場書も「深さの喪失」懸念… 「AIリテラシー財政の必要」
最近、アイルランドユニバーシティカレッジコーク(University College Cork、UCC)、MIT、カーネギーメロン大学、オックスフォード大学出版部など有数の研究機関は、AIが人間の認知能力に及ぼす影響を多角的に分析し、「ネイチャー」誌に論文を寄稿した。アイルランド研究チームの文体統計分析(スタイロメトリ)の結果、GPT-4など最新モデルが作成した文は、人間の文に比べてパターンが狭く均質で、依然として「機械的指紋」が残ることが確認された。
しかし、より大きな問題は脳の変化です。 MIT研究者が54人を対象に行った実験でチャットGPTを使ってエッセイを書いたグループは、ツールを使わなかったグループに比べて脳神経連結性が著しく弱く現れた。特に自分が書いた文を記憶できない割合が83%に達し、非使用グループ(11%)と極明な対照を成した。研究陣はこれを短期的な便宜のために未来の認知能力を引っ張る「認知負債」と定義した。
カーネギーメロン隊とマイクロソフトの共同研究でも知識労働者319人を分析した結果、AIに対する信頼度が高いほど批判的検証努力は反比例して減少する傾向が確認された。また、オックスフォード大学出版部の調査では、英国の学生の62%がAIが自身の技術開発を損なっていると答え、自ら事故の深さが浅くなる現象を懸念していることが分かった。
AIにすべてを任せるより選択的受け入れと人間中心の活用能力を育てなければならない
このような研究結果は、「生成型AI万能論」が支配していたIT市場の流れが、「責任感のあるAI(Responsible AI)」と「人間中心のAI活用」に転換されなければならないことを示唆する。現在、生成型AI市場は爆発的な成長を見せているが、裏面には「AI Slop」と呼ばれる低品質データの氾濫と、これによる情報生態系の擾乱の懸念が共存する。
特に政治・社会的説得領域でAIが事実かどうかにかかわらず高い説得力を発揮するという点は、プラットフォーム企業にとって大きなリスク要因である。オックスフォード大学などの研究によると、最新モデルほど情報量を増やすという指示を受けたとき、事実精度が10~14%ポイント急落する「幻覚(Hallucination)」現象が相次いでいることが分かった。これは、企業がAIを業務に導入する際の生産性向上という指標に加えて、メンバーの批判的思考低下防止と結果物の事実検証過程を備える費用も一緒に考慮しなければならないことを意味する。
ジェームズ・オサリバーン・アイランド・ユニバーシティ・カレッジ・コーク研究員は「チャットGPTが人間のように聞こえようと試みても依然として検出可能な文体指紋が残る」と、人間とAIの創作方式に根本的な違いがあることを強調した。
エリカ・ガレア・オックスフォード大学出版部報告書共同著者は、学生の変化について「今日の学生は機械と一緒に事故を始めた」とし、「アイデアの処理速度は速くなったが、止まって質問し、独立して考えるときに得る深さを失っている」と指摘した。
今後のAI技術の発展は人間の介入を最小化する方向に流れるだろうが、逆説的に「人間の介入(Human-in-the-loop)」の価値はさらに上昇すると見込まれる。企業と教育機関は、AIの使用を禁止する単純な規制を超えて、AIが生成した草案を批判的に検証し、独自のスタイルを施す「二次創作と編集能力」をコア競争力で再定義する。
結論的に、未来の人材像はAIを上手く扱う「運用者(オペレータ)」を超え、AIが取り替えられない直観と批判的思考を維持する「思考者(Thinker)」になる可能性が高い。これは、長期的にAI依存性による認知能力の双極化をもたらし、これを防止するための教育的および政策的ガイドラインの策定がIT業界の主な課題として浮上するだろう。