过去10年,AI技术以惊人的速度发展,并逐步渗透到人类生产和科学发现的方方面面。AI进入科学领域的方式非常广泛,已经涌现出一系列具有代表性的成果和应用。例如,在蛋白质结构预测领域,AlphaFold的出现几乎解决了生物学界长达半个世纪的“结构预测难题”,大幅度加快了药物研发和分子生物学研究的进展。在医疗健康领域,除了医学影像自动诊断,AI还被用于药物靶点预测、临床数据分析、个性化治疗方案推荐,成为医生和科研人员不可或缺的工具。
这些例子表明,AI不仅是科研中的“助手”,更逐渐成为推动科学前沿的重要力量。过去可能需要十年甚至数十年才能攻克的难题,如今在AI的加持下有望在几年甚至几个月内得到突破。
然而,面对突如其来的AI大模型时代,不少科研人员甚至普通大众也产生了不同层面的担忧。
研究方向是否失去意义:一些原本被认为是可以长期研究的科学难题,可能被AI在短时间内攻克,从而让研究者担心自己的研究不再“有价值”。
研究资源的不平衡:由于大模型训练和运行需要巨大的算力和资金支持,很多课题组或中小机构难以参与其中,担心被彻底边缘化。
传统科研方法的“实效”:当AI方法能够轻易超越传统方法时,一些人担心传统科研方法不再被认可。
生成式模型的幻觉问题:大模型在生成答案时可能会出现事实性错误,这在科学研究中可能造成误导。
社会就业的焦虑:有人担心随着AI接管大量工作任务,可能造成科研人员和技术人员大批失业。
这些担忧在一定程度上是合理的,但也需要全面、理性地分析。笔者认为,总体而言,AI对科学研究具有正面、积极的意义。
AI会提升科研效率,这一点已经被广泛接受,这里不再赘述。
关于资源不平衡的问题,并非所有的研究都需要依赖大模型,小模型依旧有巨大的生命力。随着技术的发展,轻量化模型、专用化模型不断涌现,很多课题组即便资金有限,也能利用小模型在具体问题上发挥作用。这可以降低科研的门槛,给更多人“下场”研究的机会。
关于科研方法的问题,传统方法不应被完全抛弃。许多AI的设计灵感正来源于传统的数学与物理方法。物理启发、数学约束等思想在深度学习模型的设计中依然具有重要价值。这同时能解决人工智能的“幻觉”问题——将传统科学方法与AI模型结合,可能孕育出更加稳健、可信的成果。
生成式语言模型的幻觉问题,不应成为“人工智能+”科学技术的阻碍。科学发现始终是一个多环节、多验证的过程,讲求严谨与可验证性。AI提出的结果只是一个参考,最终能否成立,还要经过实验验证、同行评议、临床试验等多重检验。例如,AI可以帮助发现一种可能具有抗癌作用的化合物,但在进入临床前,仍需要大量的实验验证,最终是否使用也必须由医生和监管机构综合判断。换句话说,AI是辅助而非决策者,只要人类把握住最终的决策权,就无需过度担心幻觉问题。
至于科学家会不会被AI取代,笔者认为,AI替代的往往是那些耗时耗力、重复性强的工作,例如大规模数据的清理与统计、冗长文献的整理与初步分析等。这些工作过去需要投入大量人力,如今AI能够快速完成,科研人员正好解放出更多时间和精力,专注于更具创造性、创新性的工作。目前来看,AI在原创性和真正的科学洞见上仍存在明显不足——因为,科学发现不仅需要数据和计算,更需要问题意识、直觉判断、跨学科联想和价值选择。这些能力是AI暂时无法完全替代的。因此,我们与其担心“失业”,不如积极思考如何转变角色,如何与AI协同工作,把AI当作增强人类智慧的工具,而不是竞争对手。
毋庸置疑,AI正在重塑科学研究生态。它既带来了前所未有的机遇,也引发了一些合理的担忧。但从长远看,AI的积极作用远大于潜在风险。我们要做的就是,积极拥抱,探索如何与AI共同进步。
(作者系南开大学计算机学院教授)
已有0人发表了评论