全球“最强大脑”正汇聚迪拜,AI时代的科学范式嬗变成为了这场世界顶尖科学家峰会的讨论热点。峰会特意设置“人工智能与科学”的主题分会,还设置了“AI与社会:文艺复兴,还是毁灭?”“AI是否真能够进行科学发现?”等多个深度议题,其中最引人关注的,是世界顶尖科学家协会主席、2006年诺贝尔化学奖得主罗杰·科恩伯格将主持发布的具有里程碑意义的“开放科学计划”,这将向全球科学界传递出一个清晰信号:AI智能体正从基础科学领域的人类研究辅助工具变为了“共同探索者”。
这一计划旨在构建以人工智能为驱动核心的新一代科研基础设施,通过深度整合数据、算法与科学研究全过程,探索一种更开放、高效、协同的基础科研新模式,为全球科学共同体打造一个兼具公共性与前瞻性的创新平台。
这不仅仅是研究效率的提升,更是科研方法论的根本性演进。南方科技大学助理教授杨林易在接受记者采访时,系统回顾了人机协作模式的演进历程:在深度学习兴起之前,科学家与AI处于“主仆式”协作阶段,人类是唯一的智慧来源和特征设计师,AI仅作为高效的“统计计算器”。2012年后,伴随深度学习技术的突破,协作模式转向“向导与猎手”。科学家负责数据收集与目标函数定义,AI成为了具有超强感知的“显微镜”,从处理高维、非结构化的科学数据过程中,发现人类直觉难以捕捉的复杂模式。
“当前,我们正迈入AI Co-scientist时代,大语言模型赋予了AI逻辑推理与规划能力。”杨林易以化学研究框架ChemCrow为例,“科学家只需输入‘制造阿司匹林’的指令,AI便能自主规划合成路径,并指挥机械臂混合试剂、控制温度,最终生成实体产物。”
“这意味着,AI不仅能拟合数据,还能主动在巨大的未知空间中,采样出那些最值得人类科学家去关注的‘高价值假设’。”杨林易认为,AI在拓展科学探索边界上展现出了极大的前景。
科学探索的主体,正在从“我们”悄然转变为“我们和AI”,但杨林易认为,建立严格的伦理与安全防线,是AI驱动科学探索的先决条件。“这是一个关乎人类科学未来的核心命题。”他说,“一个能设计出拯救生命的新药的生成模型,理论上也能设计出高致命性的生化毒素。AI加速了科学发现的进程,同时也降低了危险知识的获取门槛。”
“我们必须警惕过度依赖AI导致的‘认识论外包’。”杨林易说,需要通过从设计源头确立“安全优先”的原则,实施“人在闭环”的强制审核机制,以保证人类始终拥有科学真理的最终裁量权,确保AI探索空间严格限定于“对人类有益”的安全边界内。
在这一结构下,人类负责提出富有创造力的宏大目标与构想,AI则作为强大的助力,在此指引下进行深入的探索与优化。“未来的科学范式,必须是‘AI负责计算,人类负责价值’的深度耦合结构。”杨林易说,在人机共研的新时代,确立明晰的协作边界与价值导向,与追求技术突破同等重要。