游客,您好,欢迎您进入科技信息监测服务平台! 登录 | 注册  帮助中心
您当前的位置: 首页 > [2024年第6期]情报条目详细信息

编译内容

编译服务: 科技出版发展智库 编译时间: 2024-4-23 浏 览 量: 5

一些研究人员认为人工智能具有超人的特质。所有科学家都需要警惕面临的风险。

当前,从自动驾驶技术的实验室研发,到机器人和算法共同参与的实验设计,再到社会科学研究中替代人类参与者的角色,人工智能(AI)正逐渐渗透到各行各业的科研工作中,并深受科学家的青睐[1]。

然而,人工智能并非完美无缺。众多讨论聚焦于其存在的诸多弊端。例如,生成式人工智能(如ChatGPT)有时会出现信息错误或产生不符合实际的“幻觉”,同时机器学习系统的运作原理往往缺乏透明度。

在科研领域,人工智能带来的风险远不止于此。最近,《自然》杂志上发表的文章指出[2],人工智能系统会带来进一步的风险:研究人员可能会过度信赖这些工具的超强能力,从而影响研究的客观性、效率和对复杂概念的理解。更具体地说,这可能导致科学家忽视AI的局限性,如过度聚焦于某些方面,或错误地认为自己对某个概念的理解比实际更为深入。

文章的作者,康涅狄格州纽黑文耶鲁大学人类学家丽莎-梅塞里(Lisa Messeri)和新泽西州普林斯顿大学认知科学家莫莉-克罗克特(Molly Crockett)强调,科学家在拥抱人工智能之初,就必须正视这些风险。因为一旦AI深入科研流程,解决这些问题将变得更为棘手。他们警告说,如果科学家未能充分考虑到AI的潜在危害,那么可能会失去科研的某些核心价值。

这篇经过同行严格评审的文章及时传递了一则令人忧心的警示:倘若科学家们在欣然接纳人工智能系统的同时,未能深入探究并充分考虑其潜在危害,我们或将面临难以预料的损失。对于潜心于研究工作的学者们,以及那些为科研指明方向与边界的决策者们,包括资助者和期刊编辑,均须对此保持高度警觉。尽管我们已掌握一些降低风险的策略,但真正实现这一目标,还需整个科学界以更加审慎和明察秋毫的态度来审视人工智能系统。

Lisa Messeri和Molly Crockett进行了详尽的研究,分析了大约100篇涵盖同行评议论文、预印本、会议论文集及书籍的文献资料,这些资料主要发表于近五年。他们从这些资料中提炼出科学家们认为人工智能系统可以提高人类能力的方式。

在他们所描述的“AI as Oracle”的方式中,研究人员设想人工智能工具能够不知疲倦地阅读并消化科学论文,因此在研究科学文献方面能够比人类做得更为详尽。此外,在“Oracle”以及另一被称为“AI as Arbiter”的方式中,系统被认为能够超越人类,以更为客观的态度评估科学发现。这是因为它们不太可能为了支撑自身假设而选择性引用文献,也不易在同行评审中表现出偏袒。而在第三个方式“AI as Quant”中,人工智能工具在分析海量且复杂的数据集方面,似乎已突破了人类思维的局限。最后,第四种方式“AI as Surrogate”则认为,人工智能工具能够模拟那些难以获取或过于复杂的数据。

在人类学和认知科学的启示下,Lisa Messeri和Molly Crockett预见到了这些设想可能带来的潜在风险。其中之一就是“解释深度的错觉”(illusion of explanatory depth)[3],当人们过度依赖他人——或在此情境下为算法——提供的知识时,他们往往会误以为这是自己的知识,并错误地认为自己对这些知识的理解比实际更为深刻。

另一个潜在的风险是,研究可能会倾向于只关注人工智能系统能够测试的事物,这被研究人员称为“探索广度的错觉”(illusion of exploratory breadth)。以社会科学领域为例,“AI as Surrogate”的方式可能会促使研究者更多地开展涉及人工智能所能模拟的人类行为实验,而忽视了那些无法被模拟的行为,如任何需要实际物质交互的情境。

此外,还存在一种“客观性的错觉”,即研究人员可能误以为人工智能系统能够代表所有可能的观点,或者根本不带有任何观点。然而,事实并非如此。这些工具仅仅反映了它们所训练数据中发现的特定观点,而且它们往往也会继承这些数据中的偏见。Molly Crockett指出:“我们可能会忘记,有些问题是人工智能工具无法回答的。”他进一步强调,考虑到在研究过程中纳入不同观点的重要性,这种客观性的假象尤其令人忧虑。

避免陷阱

如果你是一名计划采纳人工智能技术的科学家,为降低潜在风险,你可以采取一些策略。首先,尝试将你的应用意图与某一特定方式相匹配,并深入思考可能遭遇的陷阱。其次,审慎地考虑如何运用人工智能工具。Molly Crockett提醒,利用人工智能来节省时间相较于依赖其提供你所不具备的专业知识,风险相对较小。

期刊编辑在审阅涉及人工智能系统的稿件时,同样需要警惕这些方式背后潜藏的风险。资助者在审核拨款申请,以及那些希望其研究人员采纳人工智能的机构,也应持此态度。期刊和资助者还需关注所发表和资助的研究成果之间的平衡,确保在面对人工智能的多样化可能性时,其研究组合在提出问题、采用的方法和涵盖的观点上都能保持广泛性和多样性。

科学界的每一位成员都应认识到,人工智能的应用并非任何特定任务的必然之选,也非万能良药,而是需要仔细权衡其风险与益处的一种选择。在人工智能对大多数人而言尚属遥不可及的过去几十年里,社会科学家就已对其展开了研究。如今,包括各类研究人员在内的所有人都应倾听这些先见之明,以更加审慎的态度面对人工智能的崛起。

参考文献:

[1]Grossmann, I. et al. Science 380, 1108–1109 (2023).

[2]Messeri, L. & Crockett, M. J. Nature 627, 49–58 (2024).

[3]Rozenblit, L. & Keil, F. Cogn. Sci. 26, 521–562 (2002).

................................................................................................................................................................................................

原文标题:Why scientists trust AI too much — and what to do about it

原文链接:https://www.nature.com/articles/d41586-024-00639-y

编译:王传清

  
提供服务
导出本资源