2024-11-23 21:23来源:本站编辑
人工智能(AI)已经占据了基础科学的中心舞台。2024年诺贝尔化学和物理学奖的五位得主有一个共同的线索:人工智能。
澳大利亚国立大学负责任创新实验室技术与社会高级讲师
事实上,包括诺贝尔委员会在内的许多科学家都在庆祝人工智能是一股改变科学的力量。
正如一位诺贝尔奖得主所说,人工智能加速科学发现的潜力使其成为“人类历史上最具变革性的技术之一”。但这种转变对科学到底意味着什么呢?
人工智能有望帮助科学家用更少的钱做更多、更快的事情。但它也带来了许多新的担忧——如果科学家急于采用人工智能,他们可能会把科学变成一种逃避公众理解和信任的东西,无法满足社会的需求。
专家们已经发现,至少有三种错觉会让使用人工智能的研究人员陷入困境。
首先是“解释深度的错觉”。仅仅因为一个人工智能模型擅长预测一种现象——比如AlphaFold,它因为预测蛋白质结构而获得了诺贝尔化学奖——并不意味着它可以准确地解释它。神经科学领域的研究已经表明,为优化预测而设计的人工智能模型可能会对潜在的神经生物学机制得出误导性的结论。
二是“探索广度的错觉”。科学家们可能认为他们在探索性研究中调查了所有可测试的假设,而实际上他们只是在研究一组有限的假设,这些假设可以使用人工智能进行测试。
最后是“客观幻觉”。科学家可能认为人工智能模型没有偏见,或者它们可以解释所有可能的人类偏见。然而,在现实中,所有的人工智能模型都不可避免地反映了它们的训练数据中存在的偏见和开发者的意图。
人工智能在科学领域越来越有吸引力的一个主要原因是,它有可能以更低的成本产生更多、更快的结果。
Sakana AI Labs最近开发的“AI科学家”机器就是这种推动的一个极端例子。该公司的愿景是开发一个“用于自动科学发现的完全由人工智能驱动的系统”,在这个系统中,每个想法都可以变成一篇完整的研究论文,只需15美元——尽管批评者说该系统产生了“无尽的科学垃圾”。
我们真的想要一个只需点击几下就能发表研究论文的未来吗,仅仅是为了“加速”科学的产生吗?这可能会使科学生态系统充斥着毫无意义和价值的论文,使本已不堪重负的同行评审系统进一步紧张。
我们可能会发现,我们所处的世界,就像我们曾经知道的那样,科学被淹没在人工智能生成内容的噪音之下。
人工智能在科学领域的崛起正值公众对科学和科学家的信任度仍然相当高的时候,但我们不能想当然。信任是复杂而脆弱的。
正如我们在COVID大流行期间所学到的那样,“相信科学”的呼吁可能会失败,因为科学证据和计算模型往往存在争议、不完整或存在各种解释。
然而,世界面临着许多问题,如气候变化、生物多样性丧失和社会不平等,这些问题需要根据专家判断制定公共政策。这种判断还必须对具体情况敏感,收集来自不同学科和生活经验的输入,必须通过当地文化和价值观的视角来解释。
正如国际科学理事会去年发表的一份报告所指出的那样,科学必须认识到细微差别和背景,以重建公众信任。让人工智能塑造科学的未来可能会破坏这一领域来之不易的进步。
如果我们允许人工智能在科学探究中发挥主导作用,我们就有可能创造出一种单一的知识文化,这种文化优先考虑最适合人工智能的问题、方法、观点和专家。
这可能会让我们远离负责任的人工智能所必需的跨学科方法,以及应对社会和环境挑战所需的细致入微的公共推理和对话。
随着21世纪的开始,一些人认为科学家们有一种新的社会契约,科学家们将他们的才能集中在我们这个时代最紧迫的问题上,以换取公共资金。目标是帮助社会走向一个更可持续的生物圈——一个生态健全、经济可行、社会公正的生物圈。
人工智能的兴起为科学家提供了一个机会,不仅可以履行他们的责任,还可以重振合同本身。然而,科学界需要首先解决一些关于人工智能使用的重要问题。
例如,在科学领域使用人工智能是一种可能损害公共资助工作完整性的“外包”吗?这应该如何处理?
那么人工智能日益增长的环境足迹呢?研究人员如何在将人工智能融入研究管道的同时保持与社会期望的一致?
在不首先建立这种社会契约的情况下,用人工智能改造科学的想法可能会本末倒置。
让人工智能来决定我们的研究重点,而没有来自不同声音和学科的投入,可能会导致与社会实际需要的不匹配,并导致资源分配不当。
科学应该造福整个社会。科学家需要在他们的实践社区和研究利益相关者中就人工智能的未来进行真正的对话。这些讨论应涉及这一新的社会契约的各个方面,反映共同的目标和价值观。
现在是时候积极探索人工智能为科学带来或阻碍的各种未来,并建立必要的标准和指导方针,以负责任地利用其潜力。
Ehsan Nabavi不为任何公司或组织工作、咨询、拥有股份或从任何公司或组织获得资金,这些公司或组织将从本文中受益,并且除了他们的学术任命外,没有透露任何相关的隶属关系。