nload="this.removeAttribute('width'); this.removeAttribute('height'); this.removeAttribute('onload');" />
人工智能已经成为科学研究中的一大焦点议题,2024年诺贝尔物理学奖和化学奖的公布更是将关于人工智能的讨论推向了高潮。如今,许多科学家纷纷称赞人工智能成为改变科学的力量,有人提出,人工智能加速科研攻关的潜力使其成为“人类历史上最具变革性的技术之一”。然而,这种变革对科学究竟意味着什么?尽管人工智能可帮助研究人员以更少的资金更快地完成更多工作,但它也引发了一系列新的担忧。例如,若研究人员急于利用人工智能取得成果,则会让科研成果较难获取公众的理解与信任。人工智能面临安全性危机和代表性不足的问题,其是否能够有效助力科学发展?未来,人工智能与科学研究之间的关系会呈现怎样的发展轨迹?围绕学术界和公众关注的这些热点话题,本报记者采访了相关学者。
理性看待人工智能与科学研究的结合
人工智能在科学领域越来越具有吸引力的主要原因之一,是它能够以更快的速度、更低的成本创造更多的产出。日本人工智能公司“Sakana AI”开发了一个名为“AI 科学家”的综合系统,旨在获得“完全由人工智能驱动的科学发现”,该系统只需耗费约15美元的成本便能生成一篇完整的研究论文。与此同时,人们不免产生疑问,我们真的能借助人工智能促进科学发展吗?
尽管人工智能已经在多个研究领域被广泛应用,但澳大利亚国立大学负责任创新实验室高级讲师伊赫桑·纳巴维(Ehsan Nabavi)认为,人工智能至少会在三个方面使研究人员产生错误认知。一是“解释深度错觉”。虽然人工智能模型擅长预测现象,但这并不意味着它能够准确地解释相应的现象。神经科学研究已经证实,为优化预测过程而设计的人工智能模型可能导致研究人员对潜在神经生物学机制产生误导性结论。二是“探索广度错觉”。有些研究人员认为,自己设计的人工智能模型可以涵盖所有假设性数据集,事实上却只包含了可用于人工智能测试的数据集。三是“客观性错觉”。还有一些研究人员认为人工智能模型没有偏见,但实际上,各种人工智能模型都不可避免地反映其训练数据中存在的偏见以及开发人员的意图。
纳巴维对本报记者表示,如今,科学领域充斥着由人工智能生成的内容。人工智能在科学领域的兴起正值公众对科学和科学家仍有较高信任度之际,但我们不能将此视为理所当然,因为信任关系是复杂而脆弱的。世界仍然面临许多挑战,如气候变化、生物多样性减少和社会不公平等,应对这些挑战需要公共政策制定者运用专家的判断力。这种判断力包括有意识地考虑具体情况,收集来自不同学科领域的意见和生活经验素材,并从当地文化与价值观的角度进行解读。而人工智能模型目前还无法做到这一点。
国际科学理事会2024年发布的一份报告曾提到,研究人员只有认识到研究对象的细微差别和不同背景才能产出让公众信服的成果。如果让人工智能主导科学发展的未来,可能会破坏这种信任关系。一旦研究人员允许人工智能在科学研究中占据主导地位,可能会带来一种“知识单一”的文化,即优先考虑最适合人工智能介入的问题、方法和观点等。这会使我们远离科学研究的本质以及解决社会和环境问题时必需的细致入微的公共对话与推理。
建立人工智能使用规则
随着21世纪的到来,一些人认为,科学家需要制定一份新的社会契约,即将他们的知识和才华应用于解决这个时代最紧迫的问题,从而推动社会走向一个更可持续的生物圈——生态健康、经济可行、社会公正的生物圈。人工智能的兴起不仅为科学家提供了履行这一职责的契机,也为他们的研究注入了更多的新活力。但重要的是,学术界首先需要明确一系列有关人工智能使用规则的事项。例如,在科学研究中使用人工智能是否属于一种“外包”行为、这一行为是否损害公共资助的完整性,以及该如何处理这个问题,人工智能对环境有何影响,研究人员如何在将人工智能融入研究过程的同时,使其产出的成果与社会需求保持一致。
纳巴维说,在没有建立规则的前提下使用人工智能来改变科学研究,这种想法可能是本末倒置。让人工智能决定研究的重点,忽视来自不同学科领域的声音和意见,会导致研究结果与社会实际需求不匹配,造成资源分配不当甚至资源浪费。科学研究应当造福于整个社会,研究人员需要在研究与实践中就人工智能使用规则展开真正的对话。现在是时候探讨在科学研究中应用人工智能会带来哪些问题,并建立必要的指导方针和评估标准,以负责任的态度激发人工智能潜力。
此外,人工智能安全问题也引发了人们的担忧。人工智能安全的概念涉及研究、战略、政策等多个方面,旨在确保这些系统可靠、符合人类价值观且不会造成不必要的伤害。目前,学术界存在一种反思,即人工智能领域反映的大多是西方的认知框架,主要形成的是以西方为中心的研究范式,且主要服务于高收入国家的技术机构和利益相关者。这种系统性排斥不仅延续了现有的权力不对称,还损害了真正有益的人工智能系统的发展。包括非洲、大洋洲、拉美和加勒比地区、中东、中亚、南亚、东南亚等地区在内,全球大部分地区在人工智能开发和人工智能系统中嵌入训练数据等方面,都面临着代表性不足等问题。在这种情况下,人工智能与科学研究的结合,必然会让公众质疑其研究结果是否偏离社会实际。
人机协作要求研究人员转变角色
人工智能与科学研究的日益融合,加速了人机协作时代的到来,也推动研究人员的工作方式发生深刻变化。这种变化有助于提高学术生产力、扩大研究规模,也给科学研究范式带来了新局面。过去,研究人员主要依赖于自身的知识和分析能力。随着新技术的出现,研究过程中的学术分工正在被重新定义,促使人们对科学研究的性质、过程以及研究人员角色的演变进行批判性反思。
澳大利亚悉尼大学信息技术与组织教授凯·里默尔(Kai Riemer)对本报记者表示,这一转变的核心包括人类要始终处于中心地位和承担起全部责任等关键问题。由于人工智能可以产生新的假设和试验策略,人类贡献与机器贡献之间的界限可能会变得模糊。鉴于人工智能的功能是辅助性的,还无法独立提供能够满足学术界认定要求的科学研究方法,我们必须对“研究人员身份”这一概念进行重新界定。
里默尔提到,虽然人工智能具备强化数据分析和模型构建的能力,但研究人员必须保留自身的知识产权和对整个科学研究项目的管理权。尽管学术界有部分学者呼吁应充分挖掘人工智能作为协作工具的潜能,但人类必须肩负起维护科研诚信和学术严谨性并认真监督的责任。随着身份的更新,研究人员也要持续提升自己对新技能的掌握水平,尝试接受不同的观点,这样才能在人机协作时代表现出色,并不断从人工智能中获得有意义的见解。研究人员也需要始终对使用人工智能保持谨慎的态度。因为,尽管人工智能功能强大,但也可能存在缺陷导致偏见或不准确现象的出现,进而破坏研究的完整性。研究人员不能将人工智能视为一种便捷的“认知卸载”工具,而要时刻保持批判性思维,不断通过交叉引用、进行额外试验或寻求同行意见来检验人工智能生成的结果。
随着人工智能对科学研究格局的影响,高等教育机构在促进这一转变过程中具有独特的优势。人机协作的研究新范式要求高等教育机构采取积极、主动、全面的方法培养新一代研究人员。高等教育机构必须承担使命,提高研究人员的认知水平,培养研究人员的创新思维,鼓励研究人员在新时代学习新技能。具体措施包括帮助研究人员了解新的科学研究方法,引导他们将人工智能工具集成到研究工作流程中等。此外,研究人员还需要理解人工智能的巨大潜力,并掌握人工智能介入研究背后的伦理、法律、认知、社会、环境等方面的知识。高等教育机构可通过促进研究生态系统内研究人员和利益相关者之间的开放式对话来培养这种意识,持续讨论人机协作带来的机遇与挑战等议题,从而进一步加深研究人员对人工智能格局发展的认识。与此同时,高等教育机构还需要鼓励研究人员运用新的思维方式,不仅将人工智能视为一种工具,还要将之视为研究工作中的合作伙伴。更重要的是,要在此基础上培养研究人员的批判性思维技能,并持续探索如何利用人工智能加快推进有利于公共利益的研究。
总之,当前研究人员正在经历重要的技术变革,可能会面临与身份、知识产权和伦理道德相关的挑战。高等教育机构应当积极采取措施,汇集法律专家、伦理学家和行业合作伙伴等各个方面的力量,共同制定有效举措,合理应对棘手难题。
来源:中国社会科学报
责任编辑:陈禹同
新媒体编辑:苏威豪
如需交流可联系我们