인간의 사고력을 낮추는 AI … ‘인지 부채’ 경고등 “편하지만 멍해진다”

생성형 인공지능(AI)이 인간의 문체를 완벽하게 모방하기도 전에, 인간의 사고 체계와 뇌 구조를 먼저 변화시키고 있다는 연구 결과가 잇따라 발표되며 학계와 산업계에 파장을 일으키고 있다.

텍스트 생성의 효율성을 위해 AI에 의존하는 과정에서 인간의 기억력과 비판적 사고력이 감퇴하는 이른바 ‘인지 부채(Cognitive Debt)’ 현상이 구체적인 데이터로 입증된 것이다. 이는 단순히 도구의 활용법을 익히는 차원을 넘어, 기술에 종속되지 않는 인간 고유의 사고 능력을 어떻게 보존할 것인가에 대한 근본적인 질문을 던지고 있다.

MIT·MS 등 “AI 의존 높을수록 뇌 연결성·비판적 사고 약화” 교육·연구 현장서도 ‘깊이의 상실’ 우려…“AI 리터러시 재정의 필요”

최근 아일랜드 유니버시티 칼리지 코크(University College Cork, UCC), MIT, 카네기멜론대, 옥스퍼드 대학 출판부 등 유수 연구기관들은 AI가 인간의 인지 능력에 미치는 영향을 다각도로 분석해 <네이처>지에 논문을 기고했다. 아일랜드 연구팀의 문체 통계 분석(스타일로메트리) 결과, GPT-4 등 최신 모델이 작성한 글은 인간의 글에 비해 패턴이 좁고 균질해 여전히 ‘기계적 지문’이 남는 것으로 확인됐다.

그러나 더 큰 문제는 뇌의 변화다. MIT 연구진이 54명을 대상으로 진행한 실험에서 챗GPT를 사용해 에세이를 쓴 그룹은 도구를 쓰지 않은 그룹에 비해 뇌 신경 연결성이 현저히 약하게 나타났다. 특히 자신이 쓴 글을 기억하지 못하는 비율이 83%에 달해, 비사용 그룹(11%)과 극명한 대조를 이뤘다. 연구진은 이를 단기적 편의를 위해 미래의 인지 능력을 당겨쓰는 ‘인지 부채’로 정의했다.

카네기멜론대와 마이크로소프트의 공동 연구에서도 지식 노동자 319명을 분석한 결과, AI에 대한 신뢰도가 높을수록 비판적 검증 노력은 반비례하여 줄어드는 경향이 확인됐다. 또한 옥스퍼드 대학 출판부의 조사에서는 영국 학생의 62%가 AI가 자신의 기술 개발을 해치고 있다고 응답하며, 스스로 사고의 깊이가 얕아지는 현상을 우려하고 있는 것으로 나타났다.

AI에 모든 것을 맡기기보다 선택적 수용과 인간중심의 활용 능력 길러야

이러한 연구 결과는 ‘생성형 AI 만능론’이 지배하던 IT 시장의 흐름이 ‘책임감 있는 AI(Responsible AI)’와 ‘인간 중심의 AI 활용’으로 전환되어야 함을 시사한다. 현재 생성형 AI 시장은 폭발적인 성장세를 보이고 있으나, 이면에는 ‘AI 슬롭(AI Slop)’이라 불리는 저품질 데이터의 범람과 이로 인한 정보 생태계 교란 우려가 공존한다.

특히 정치·사회적 설득 영역에서 AI가 사실 여부와 관계없이 높은 설득력을 발휘한다는 점은 플랫폼 기업들에게 큰 리스크 요인이다. 옥스퍼드대 등의 연구에 따르면, 최신 모델일수록 정보량을 늘리라는 지시를 받을 때 사실 정확도가 10~14%포인트 급락하는 ‘환각(Hallucination)’ 현상이 여전한 것으로 나타났다. 이는 기업들이 AI를 업무에 도입할 때 생산성 향상이라는 지표 외에도, 구성원의 비판적 사고 저하 방지와 결과물의 사실 검증 과정을 갖추는 비용도 함께 고려해야 한다는 것을 의미한다.

제임스 오설리번 아일랜드 유니버시티 칼리지 코크 연구원은 “챗GPT가 인간처럼 들리려고 노력해도 여전히 탐지 가능한 문체 지문이 남는다”며 인간과 AI의 창작 방식에 근본적인 차이가 있음을 강조했다.

에리카 갈레아 옥스퍼드 대학 출판부 보고서 공동저자는 학생들의 변화에 대해 “오늘의 학생들은 기계와 함께 사고하기 시작했다”며 “아이디어 처리 속도는 빨라졌으나, 멈추고 질문하며 독립적으로 사고할 때 얻는 깊이를 잃고 있다”고 지적했다.

향후 AI 기술의 발전은 인간의 개입을 최소화하는 방향으로 흐르겠지만, 역설적으로 ‘인간의 개입(Human-in-the-loop)’ 가치는 더욱 상승할 것으로 전망된다. 기업과 교육 기관은 AI 사용을 금지하는 단순한 규제를 넘어, AI가 생성한 초안을 비판적으로 검증하고 고유의 스타일을 입히는 ‘2차 창작 및 편집 역량’을 핵심 경쟁력으로 재정의할 것이다.

결론적으로 미래의 인재상은 AI를 능숙하게 다루는 ‘운용자(오퍼레이터)’를 넘어, AI가 대체할 수 없는 직관과 비판적 사고를 유지하는 ‘사고자(Thinker)’가 될 가능성이 높다. 이는 장기적으로 AI 의존도로 인한 인지 능력 양극화를 초래할 수 있으며, 이를 방지하기 위한 교육적, 정책적 가이드라인 마련이 IT 업계의 주요 과제로 부상할 것이다.

AI lowers human thinking… Cognitive debt warning: "It's convenient, but it makes you dizzy."

Research results showing that generative artificial intelligence (AI) is changing the human thought process and brain structure even before it can perfectly mimic human writing style are being published one after another, causing waves in academia and industry.

The phenomenon of "cognitive debt," where human memory and critical thinking abilities decline as a result of relying on AI for text generation efficiency, has been demonstrated through concrete data. This goes beyond simply learning how to use tools; it raises fundamental questions about how to preserve our uniquely human thinking abilities, independent of technology.

MIT, Microsoft, and others say, "Higher reliance on AI weakens brain connectivity and critical thinking." Concerns about a loss of depth in education and research are also growing. "AI literacy needs to be redefined."

Recently, leading research institutions such as University College Cork (UCC), MIT, Carnegie Mellon University, and Oxford University Press published a paper in the journal Nature analyzing the impact of AI on human cognitive abilities from various angles. The Irish research team's stylometric analysis revealed that texts written by the latest models, such as GPT-4, still leave a "machine fingerprint" due to their narrower and more homogeneous patterns compared to human text.

But the bigger issue is the brain's changes. In an experiment conducted by MIT researchers with 54 people, the group that wrote essays using ChatGPT showed significantly weaker neural connectivity in their brains compared to the group that didn't use the tool. Notably, 83% of them couldn't remember what they had written, a stark contrast to the 11% of the non-user group. The researchers defined this as "cognitive debt," which involves forcing future cognitive abilities for short-term convenience.

A joint study by Carnegie Mellon University and Microsoft analyzed 319 knowledge workers and found that as trust in AI increased, efforts to critically examine it tended to decrease inversely. Furthermore, a survey by Oxford University Press found that 62% of British students responded that AI was harming their skill development, expressing concerns about a decrease in the depth of their thinking.

Rather than leaving everything to AI, we need to cultivate selective acceptance and human-centered utilization capabilities.

These research results suggest that the IT market, dominated by the "generative AI omnipotence theory," needs to shift toward "responsible AI" and "human-centered AI utilization." While the generative AI market is currently experiencing explosive growth, concerns linger about the overflow of low-quality data, often referred to as "AI slop," and the resulting disruption to the information ecosystem.

The fact that AI demonstrates high persuasive power, regardless of factual accuracy, especially in the realm of political and social persuasion, poses a significant risk for platform companies. Research by Oxford University and others found that the latest models still suffer from a phenomenon known as "hallucination," where factual accuracy plummets by 10-14 percentage points when instructed to increase the amount of information. This suggests that when companies adopt AI in their work, they must consider not only the indicator of increased productivity but also the costs of preventing a decline in critical thinking among employees and establishing fact-checking processes for the results.

James O'Sullivan, a researcher at University College Cork in Ireland, emphasized the fundamental differences between the creative methods of humans and AI, saying, "Even if ChatGPT tries to sound human, it still leaves a detectable stylistic fingerprint."

“Today’s students are starting to think alongside machines,” said Erica Galea, co-author of the Oxford University Press report on the changes in students. “They process ideas faster, but they lose the depth that comes from stopping, asking questions, and thinking independently.”

Future advancements in AI technology will likely trend toward minimizing human intervention, but paradoxically, the value of "human-in-the-loop" intervention is expected to increase further. Beyond simple regulations prohibiting AI use, businesses and educational institutions will redefine "secondary creation and editing capabilities"—critically reviewing AI-generated drafts and imbuing them with their own unique style—as core competencies.

In conclusion, the ideal workforce of the future is likely to go beyond "operators" adept at handling AI, to "thinkers" who maintain intuition and critical thinking that AI cannot replace. In the long term, this could lead to a polarization of cognitive abilities due to AI dependence, and establishing educational and policy guidelines to prevent this will emerge as a key challenge for the IT industry.

人間の思考力を下げるAI… 「認知負債」警告灯「快適だがぼやけている」

生成型人工知能(AI)が人間の文体を完全に模倣する前に、人間の思考体系と脳構造を先に変化させているという研究結果が相次いで発表され、学界と産業界に波長を引き起こしている。

テキスト生成の効率性のためにAIに依存する過程で人間の記憶力と批判的思考力が減退する、いわゆる「認知負債(Cognitive Debt)」現象が具体的なデータで立証されたのだ。これは単に道具の活用法を身につける次元を超えて、技術に依存しない人間固有の思考能力をどのように保存するかについての根本的な質問を投げかけている。

MIT・MSなど「AI依存が高いほど、脳接続性・批判的思考弱化」教育・研究現場書も「深さの喪失」懸念… 「AIリテラシー財政の必要」

最近、アイルランドユニバーシティカレッジコーク(University College Cork、UCC)、MIT、カーネギーメロン大学、オックスフォード大学出版部など有数の研究機関は、AIが人間の認知能力に及ぼす影響を多角的に分析し、「ネイチャー」誌に論文を寄稿した。アイルランド研究チームの文体統計分析(スタイロメトリ)の結果、GPT-4など最新モデルが作成した文は、人間の文に比べてパターンが狭く均質で、依然として「機械的指紋」が残ることが確認された。

しかし、より大きな問題は脳の変化です。 MIT研究者が54人を対象に行った実験でチャットGPTを使ってエッセイを書いたグループは、ツールを使わなかったグループに比べて脳神経連結性が著しく弱く現れた。特に自分が書いた文を記憶できない割合が83%に達し、非使用グループ(11%)と極明な対照を成した。研究陣はこれを短期的な便宜のために未来の認知能力を引っ張る「認知負債」と定義した。

カーネギーメロン隊とマイクロソフトの共同研究でも知識労働者319人を分析した結果、AIに対する信頼度が高いほど批判的検証努力は反比例して減少する傾向が確認された。また、オックスフォード大学出版部の調査では、英国の学生の62%がAIが自身の技術開発を損なっていると答え、自ら事故の深さが浅くなる現象を懸念していることが分かった。

AIにすべてを任せるより選択的受け入れと人間中心の活用能力を育てなければならない

このような研究結果は、「生成型AI万能論」が支配していたIT市場の流れが、「責任感のあるAI(Responsible AI)」と「人間中心のAI活用」に転換されなければならないことを示唆する。現在、生成型AI市場は爆発的な成長を見せているが、裏面には「AI Slop」と呼ばれる低品質データの氾濫と、これによる情報生態系の擾乱の懸念が共存する。

特に政治・社会的説得領域でAIが事実かどうかにかかわらず高い説得力を発揮するという点は、プラットフォーム企業にとって大きなリスク要因である。オックスフォード大学などの研究によると、最新モデルほど情報量を増やすという指示を受けたとき、事実精度が10~14%ポイント急落する「幻覚(Hallucination)」現象が相次いでいることが分かった。これは、企業がAIを業務に導入する際の生産性向上という指標に加えて、メンバーの批判的思考低下防止と結果物の事実検証過程を備える費用も一緒に考慮しなければならないことを意味する。

ジェームズ・オサリバーン・アイランド・ユニバーシティ・カレッジ・コーク研究員は「チャットGPTが人間のように聞こえようと試みても依然として検出可能な文体指紋が残る」と、人間とAIの創作方式に根本的な違いがあることを強調した。

エリカ・ガレア・オックスフォード大学出版部報告書共同著者は、学生の変化について「今日の学生は機械と一緒に事故を始めた」とし、「アイデアの処理速度は速くなったが、止まって質問し、独立して考えるときに得る深さを失っている」と指摘した。

今後のAI技術の発展は人間の介入を最小化する方向に流れるだろうが、逆説的に「人間の介入(Human-in-the-loop)」の価値はさらに上昇すると見込まれる。企業と教育機関は、AIの使用を禁止する単純な規制を超えて、AIが生成した草案を批判的に検証し、独自のスタイルを施す「二次創作と編集能力」をコア競争力で再定義する。

結論的に、未来の人材像はAIを上手く扱う「運用者(オペレータ)」を超え、AIが取り替えられない直観と批判的思考を維持する「思考者(Thinker)」になる可能性が高い。これは、長期的にAI依存性による認知能力の双極化をもたらし、これを防止するための教育的および政策的ガイドラインの策定がIT業界の主な課題として浮上するだろう。

人工智能降低了人类的思考能力……认知债务警告:“它很方便,但会让你头晕目眩。”

研究结果不断涌现,表明生成式人工智能(AI)在能够完美模仿人类写作风格之前,就已经改变了人类的思维过程和大脑结构,这在学术界和工业界引起了巨大反响。

“认知债务”现象——即人类因过度依赖人工智能提高文本生成效率而导致记忆力和批判性思维能力下降——已通过具体数据得到证实。这不仅仅关乎如何使用工具,更引发了关于如何独立于技术之外,保持我们独有的人类思维能力的根本性问题。

麻省理工学院、微软和其他机构表示,“对人工智能的过度依赖会削弱大脑连接和批判性思维能力。”人们也越来越担心教育和研究的深度会因此下降。“人工智能素养需要重新定义。”

近日,包括科克大学学院(UCC)、麻省理工学院(MIT)、卡内基梅隆大学和牛津大学出版社在内的多家顶尖研究机构在《自然》杂志上发表了一篇论文,从多个角度分析了人工智能对人类认知能力的影响。爱尔兰研究团队的文体计量分析表明,即使是GPT-4等最新模型生成的文本,由于其文本模式比人类文本更窄、更同质化,仍然会留下“机器指纹”。

但更重要的问题是大脑的变化。麻省理工学院的研究人员对54名参与者进行了一项实验,结果显示,使用ChatGPT撰写文章的参与者大脑中的神经连接明显弱于未使用该工具的参与者。值得注意的是,83%的参与者无法记住自己写过的内容,而未使用该工具的参与者中只有11%的人记不起来。研究人员将这种情况定义为“认知债务”,即为了短期的便利而牺牲未来的认知能力。

卡内基梅隆大学和微软联合开展的一项研究分析了319名知识工作者的调查结果,发现随着人们对人工智能信任度的提高,批判性地审视人工智能的努力反而呈反比下降。此外,牛津大学出版社的一项调查显示,62%的英国学生认为人工智能正在损害他们的技能发展,并对自身思维深度下降表示担忧。

与其将一切都交给人工智能,我们更需要培养有选择地接受人工智能并以人为本的利用能力。

这些研究结果表明,目前以“生成式人工智能全能理论”为主导的IT市场需要转向“负责任的人工智能”和“以人为本的人工智能应用”。尽管生成式人工智能市场目前正经历爆炸式增长,但人们仍然担忧大量低质量数据(通常被称为“人工智能垃圾”)的泛滥及其对信息生态系统造成的破坏。

人工智能展现出强大的说服力,即便事实准确性存疑,尤其是在政治和社会领域,这给平台公司带来了重大风险。牛津大学等机构的研究发现,最新的人工智能模型仍然存在一种被称为“幻觉”的现象:当被要求增加信息量时,事实准确率会下降10-14个百分点。这表明,企业在工作中采用人工智能时,不仅要考虑生产力提升这一指标,还要考虑防止员工批判性思维能力下降以及建立事实核查流程的成本。

爱尔兰科克大学学院的研究员詹姆斯·奥沙利文强调了人类和人工智能的创作方法之间的根本差异,他说:“即使 ChatGPT 试图听起来像人类,它仍然会留下可察觉的风格特征。”

“如今的学生开始像机器一样思考,”牛津大学出版社关于学生思维变化报告的合著者埃里卡·加利亚说,“他们处理信息的速度更快,但却失去了停下来提问和独立思考所带来的深度。”

人工智能技术的未来发展趋势很可能是尽可能减少人为干预,但矛盾的是,“人机协同”干预的价值预计会进一步提升。除了简单的禁止使用人工智能的法规之外,企业和教育机构还将重新定义“二次创作和编辑能力”——即对人工智能生成的草稿进行批判性审阅并融入自身独特的风格——并将其视为核心竞争力。

总之,未来理想的劳动力群体很可能不再仅仅是精通人工智能操作的“操作员”,而是那些拥有人工智能无法取代的直觉和批判性思维的“思考者”。从长远来看,由于对人工智能的依赖,这可能会导致认知能力的两极分化,而制定相应的教育和政策指导方针来防止这种情况的发生,将成为信息技术行业面临的一项关键挑战。

L'IA diminue les capacités de réflexion humaine… Mise en garde concernant la dette cognitive : « C'est pratique, mais ça donne le tournis. »

Les résultats de recherches montrant que l'intelligence artificielle générative (IA) modifie le processus de pensée humain et la structure du cerveau avant même qu'elle puisse imiter parfaitement le style d'écriture humain sont publiés les uns après les autres, provoquant des remous dans le monde universitaire et industriel.

Le phénomène de « dette cognitive », où la mémoire et les capacités de pensée critique humaines déclinent en raison du recours à l'IA pour la génération de texte, a été démontré par des données concrètes. Il ne s'agit pas simplement d'apprendre à utiliser des outils ; cela soulève des questions fondamentales sur la manière de préserver nos capacités de pensée spécifiquement humaines, indépendamment de la technologie.

Le MIT, Microsoft et d'autres institutions affirment qu'une dépendance accrue à l'égard de l'IA affaiblit la connectivité cérébrale et l'esprit critique. Les inquiétudes concernant une perte de profondeur dans l'éducation et la recherche se multiplient également. « La culture de l'IA doit être redéfinie. »

Récemment, des institutions de recherche de premier plan, telles que l'University College Cork (UCC), le MIT, l'Université Carnegie Mellon et Oxford University Press, ont publié dans la revue Nature un article analysant l'impact de l'IA sur les capacités cognitives humaines sous différents angles. L'analyse stylométrique de l'équipe de recherche irlandaise a révélé que les textes écrits par les modèles les plus récents, comme GPT-4, conservent une « empreinte numérique » en raison de leurs caractéristiques plus fines et plus homogènes que celles des textes écrits par des humains.

Mais le problème majeur réside dans les modifications cérébrales. Lors d'une expérience menée par des chercheurs du MIT auprès de 54 participants, le groupe ayant rédigé des dissertations à l'aide de ChatGPT a présenté une connectivité neuronale nettement plus faible que le groupe témoin. Notamment, 83 % des participants ayant utilisé ChatGPT étaient incapables de se souvenir de leur texte, contre seulement 11 % dans le groupe témoin. Les chercheurs ont qualifié ce phénomène de « dette cognitive », qui consiste à sacrifier ses capacités cognitives futures pour un gain de temps immédiat.

Une étude conjointe de l'Université Carnegie Mellon et de Microsoft, portant sur 319 travailleurs du savoir, a révélé que plus la confiance envers l'IA augmentait, moins on s'efforçait de l'examiner de manière critique. Par ailleurs, un sondage réalisé par Oxford University Press a montré que 62 % des étudiants britanniques estimaient que l'IA nuisait au développement de leurs compétences, s'inquiétant notamment d'une baisse de la profondeur de leur réflexion.

Plutôt que de tout laisser à l'IA, nous devons cultiver une acceptation sélective et des capacités d'utilisation centrées sur l'humain.

Ces résultats de recherche suggèrent que le marché des technologies de l'information, dominé par la « théorie de l'omnipotence de l'IA générative », doit évoluer vers une « IA responsable » et une « utilisation de l'IA centrée sur l'humain ». Bien que le marché de l'IA générative connaisse actuellement une croissance fulgurante, des inquiétudes persistent quant à la surabondance de données de faible qualité, souvent qualifiées de « résidus d'IA », et aux perturbations qui en résultent pour l'écosystème informationnel.

Le fait que l'IA démontre un fort pouvoir de persuasion, indépendamment de l'exactitude des faits, notamment dans le domaine de la persuasion politique et sociale, représente un risque important pour les plateformes numériques. Des recherches menées par l'Université d'Oxford et d'autres institutions ont révélé que les modèles les plus récents souffrent encore d'un phénomène appelé « hallucination », où l'exactitude des faits chute de 10 à 14 points de pourcentage lorsqu'on leur demande d'augmenter la quantité d'informations. Cela suggère que lorsque les entreprises intègrent l'IA à leurs activités, elles doivent prendre en compte non seulement l'augmentation de la productivité, mais aussi les coûts liés à la prévention du déclin de l'esprit critique chez leurs employés et à la mise en place de processus de vérification des faits.

James O'Sullivan, chercheur à l'University College Cork en Irlande, a souligné les différences fondamentales entre les méthodes créatives des humains et de l'IA, déclarant : « Même si ChatGPT essaie d'avoir un ton humain, il laisse toujours une empreinte stylistique détectable. »

« Les étudiants d’aujourd’hui commencent à penser comme des machines », explique Erica Galea, co-auteure du rapport d’Oxford University Press sur l’évolution des comportements des étudiants. « Ils traitent les idées plus rapidement, mais ils perdent la profondeur de réflexion que procure le fait de s’arrêter, de poser des questions et de penser par soi-même. »

Les progrès futurs de l'intelligence artificielle tendront probablement à minimiser l'intervention humaine, mais paradoxalement, la valeur de cette intervention humaine devrait encore augmenter. Au-delà des simples réglementations interdisant l'utilisation de l'IA, les entreprises et les établissements d'enseignement redéfiniront les « capacités de création et d'édition secondaires » – c'est-à-dire la capacité à examiner de manière critique les ébauches générées par l'IA et à les enrichir d'un style unique – comme des compétences fondamentales.

En conclusion, la main-d'œuvre idéale de demain ne se limitera probablement plus aux simples « opérateurs » maîtrisant l'IA, mais s'étendra aux « penseurs » qui conservent l'intuition et l'esprit critique, qualités que l'IA ne saurait remplacer. À long terme, cela pourrait engendrer une polarisation des capacités cognitives due à la dépendance à l'IA, et l'élaboration de politiques et de mesures éducatives visant à prévenir ce phénomène constituera un enjeu majeur pour le secteur informatique.

%d bloggers like this: