人工智能降低了人类的思考能力……认知债务警告:“它很方便,但会让你头晕目眩。”

研究结果不断涌现,表明生成式人工智能(AI)在能够完美模仿人类写作风格之前,就已经改变了人类的思维过程和大脑结构,这在学术界和工业界引起了巨大反响。

“认知债务”现象——即人类因过度依赖人工智能提高文本生成效率而导致记忆力和批判性思维能力下降——已通过具体数据得到证实。这不仅仅关乎如何使用工具,更引发了关于如何独立于技术之外,保持我们独有的人类思维能力的根本性问题。

麻省理工学院、微软和其他机构表示,“对人工智能的过度依赖会削弱大脑连接和批判性思维能力。”人们也越来越担心教育和研究的深度会因此下降。“人工智能素养需要重新定义。”

近日,包括科克大学学院(UCC)、麻省理工学院(MIT)、卡内基梅隆大学和牛津大学出版社在内的多家顶尖研究机构在《自然》杂志上发表了一篇论文,从多个角度分析了人工智能对人类认知能力的影响。爱尔兰研究团队的文体计量分析表明,即使是GPT-4等最新模型生成的文本,由于其文本模式比人类文本更窄、更同质化,仍然会留下“机器指纹”。

但更重要的问题是大脑的变化。麻省理工学院的研究人员对54名参与者进行了一项实验,结果显示,使用ChatGPT撰写文章的参与者大脑中的神经连接明显弱于未使用该工具的参与者。值得注意的是,83%的参与者无法记住自己写过的内容,而未使用该工具的参与者中只有11%的人记不起来。研究人员将这种情况定义为“认知债务”,即为了短期的便利而牺牲未来的认知能力。

卡内基梅隆大学和微软联合开展的一项研究分析了319名知识工作者的调查结果,发现随着人们对人工智能信任度的提高,批判性地审视人工智能的努力反而呈反比下降。此外,牛津大学出版社的一项调查显示,62%的英国学生认为人工智能正在损害他们的技能发展,并对自身思维深度下降表示担忧。

与其将一切都交给人工智能,我们更需要培养有选择地接受人工智能并以人为本的利用能力。

这些研究结果表明,目前以“生成式人工智能全能理论”为主导的IT市场需要转向“负责任的人工智能”和“以人为本的人工智能应用”。尽管生成式人工智能市场目前正经历爆炸式增长,但人们仍然担忧大量低质量数据(通常被称为“人工智能垃圾”)的泛滥及其对信息生态系统造成的破坏。

人工智能展现出强大的说服力,即便事实准确性存疑,尤其是在政治和社会领域,这给平台公司带来了重大风险。牛津大学等机构的研究发现,最新的人工智能模型仍然存在一种被称为“幻觉”的现象:当被要求增加信息量时,事实准确率会下降10-14个百分点。这表明,企业在工作中采用人工智能时,不仅要考虑生产力提升这一指标,还要考虑防止员工批判性思维能力下降以及建立事实核查流程的成本。

爱尔兰科克大学学院的研究员詹姆斯·奥沙利文强调了人类和人工智能的创作方法之间的根本差异,他说:“即使 ChatGPT 试图听起来像人类,它仍然会留下可察觉的风格特征。”

“如今的学生开始像机器一样思考,”牛津大学出版社关于学生思维变化报告的合著者埃里卡·加利亚说,“他们处理信息的速度更快,但却失去了停下来提问和独立思考所带来的深度。”

人工智能技术的未来发展趋势很可能是尽可能减少人为干预,但矛盾的是,“人机协同”干预的价值预计会进一步提升。除了简单的禁止使用人工智能的法规之外,企业和教育机构还将重新定义“二次创作和编辑能力”——即对人工智能生成的草稿进行批判性审阅并融入自身独特的风格——并将其视为核心竞争力。

总之,未来理想的劳动力群体很可能不再仅仅是精通人工智能操作的“操作员”,而是那些拥有人工智能无法取代的直觉和批判性思维的“思考者”。从长远来看,由于对人工智能的依赖,这可能会导致认知能力的两极分化,而制定相应的教育和政策指导方针来防止这种情况的发生,将成为信息技术行业面临的一项关键挑战。