要点:
西湖大学AI交叉科学社的研究团队日前在Biorxiv上发布了一项研究,探索以GPT-4作为主脑科学家进行生物学研究的可行性。在像生命科学这样的自然科学领域,主脑科学家一般较少参与具体的实验,而是专注于整体的实验设计。初级研究人员则通常负责实验的执行。在这项研究中,人工智能扮演了主脑科学家的中心角色,而人类研究人员则充当人工智能的助手。
致力于传播优质的中国知识内容、构建全球新共识。我们将通过一系列时事资讯、精品课程、论坛、节目、咨询报告等内容产品,提供关于当代中国的最新的舆论思潮、深入的社会观察、亮眼的科技成就等优质信息。我们已与五大洲十多个国家、百余个研究机构、媒体机构、政治团体、民间组织建立合作关系。希望通过我们的工作在海外分享中国经验,讲述中国故事,客观分析我们共同面对的挑战和机遇,携手全球青年寻找全球化发展的新共识。
联系我们// Substack // Twitter // YouTube // 相关文章
人工智能大模型的能力在过去这段时间里日新月异,已经能够承担许多人类的工作,包括艺术创作、编写代码等。科学家们很早就开始利用机器学习来辅助科研,并广泛应用于各个科学领域。
以往在科研中,人工智能主要作为辅助工具,来帮助完成特定的研究任务。而人类科学家则扮演着大脑的角色/Masterbrain,如提出研究问题、设计实验、分析结果和得出科学结论,这些都体现了创造力。比如AlphaFold是强大的蛋白质预测工具,但它的工作方式是预先定义好的,科学家的目标是利用它直接从蛋白质的序列预测其空间结构。
但大家可曾想过有一天AI不再只是给人类科学家打下手,而是反过来,自己提出科研问题、提出假设、设计科学实验,成为PI/principal investigator?
西湖大学AI 交叉科学社的研究团队日前在Biorxiv 上发布了一项研究,探索以GPT-4作为主脑科学家进行生物学研究的可行性。在像生命科学这样的自然科学领域,主脑科学家一般较少参与具体的实验,而是专注于整体的实验设计。初级研究人员则通常负责实验的执行。在这项研究中,人工智能扮演了主脑科学家的中心角色,而人类研究人员则充当人工智能的助手。
相对来说,计算机科学或数学等领域的研究可以只针对抽象概念来进行,但自然科学的特点是科学家必须观察现实世界,并与之互动,从而进行实验以产生新的知识。因此,让人工智能从事生物学研究是更大的挑战,可以更好地检验其作为主脑科学家在科研流程中的能力:提出假设、实验设计、实验结果分析和得出结论。
在这里,研究人员设定的课题是“研究影响DNA凝胶电泳的因素”。这个课题虽然相对简单,但却是生命科学研究的基础(研究影响DNA 电泳的因素通常是生命科学本科生的入门项目),而且DNA凝胶电泳数据以图像形式呈现,要正确地分析实验结果,就必须对电泳图像有正确的认识。
提出假设和实验设计<br>在这个实验里,研究者们假定自己是科研新人,向ChatGPT-4求教如何进行实验:
GPT-4给出了十分详细的建议。接下来研究人员让GPT-4考虑自己实验室的实际情况,并让它根据这些情况来调整实验假设:
GPT-4很好地把握了研究人员所描述的情况,修改了之前的实验假设,转而将重点放在凝胶浓度和电压在两个变量上,并且还在假设中增加了限制条件,如研究人员之前提出的“编码EGFP的720bp的线性DNA”、“含乙溴化乙锭的TAE缓冲液”等。
有了实验假设,研究人员接下来让GPT-4来设计实验:
GPT-4给出了非常详细的操作步骤,基本上是事无巨细、手把手地告诉研究人员每一步该怎么做。并且它还能针对研究人员不理解的地方进行答疑解惑。可见除了能做主脑科学家,GPT-4也可以代替研究生导师的作用,这种指导基本上比任何一个人类导师都要耐心细致。为了便于人类理解,它还针对不同凝胶浓度和电压的实验条件列了个表格。
目前GPT-4还不能自己动手,所以实验的执行还需要人类。实验结果就是下面这些凝胶电泳的条带。可以看到720 bp EGFP DNA的迁移距离在不同条件下是不同的,但均略低于DNA标记物750 bp条带的位置,表明EGFP DNA长度是正确的,凝胶电泳实验成功了。
实验结果分析
到了实验结果分析环节,GPT-4同样大显身手。不过因为研究人员没有办法直接让GPT-4分析上面那张图片,就只好用语言向它描述电泳条带的分布情况:
这里GPT-4提供了详细的步骤说明,指出应该如何测量实验数据。例如,它明确指出应该测量第2、3、4条带上DNA样品的迁移距离,并提到需要测量从起始点到每个条带中心的距离。这些都是初级科研人员容易犯的错误。这说明GPT-4对实验细节有着精确的理解。
接下来,研究人员使用生命科学领域常用的图像处理软件ImageJ测量了GPT-4所需的实验结果,并将数据反馈给GPT-4。他们直接把Excel表格里的数据复制粘贴给了GPT-4,而后者很快就理解了其中的数据结构,并计算出了均值和标准差。这表明它有着出色的处理和解读非结构性数据的能力。不过它得出的标准差和研究人员所计算的稍有出入,而均值却是正确的。 GPT-4随后得出结论:DNA的迁移距离随着凝胶浓度和电压的上升而下降。
随后,研究人员让GPT-4写一段Python代码来进行two-way ANOVA分析:
然后研究人员在Jupyter Notebook运行了这些代码,获得了结构,再反馈给GPT-4进行分析并按照要求做了图表。
此后,研究人员打算更进一步,让GPT-4根据实验结构建模:
能总结还能复槃
GPT-4按照研究人员的要求对这次实验进行了总结,可谓面面俱到、十分详尽。而且它还能够迅速吸收由人类提供的新知识,或者通过与外界互动获得新知。比如它会指出实验中第一条涌道是DNA梯形电泳图谱,以及在实验中研究人员在每个条件下重复了三次实验。这些信息最初并未包含在GPT-4的实验计划中,可见它已经具备了高水平的抽象总结能力。
而后研究人员和GPT-4一起开始复槃这个实验:
AI带来科研范式的革命
从实验结果来看,AI是可以胜任作为主脑科学家的。在实验里,人类基本上扮演了两个角色:科学的第一推动者和实验的代理执行者,包括把实验结果反馈给AI。那么人类与人工智能在科研中的这种关系在将来还能如何演变呢?
作者认为,AI参与科研存在5个阶段。阶段I:人类智能主导研究; I I :人工智能辅助研究;III:人工智能主脑研究;IV:人工智能闭环研究;V:人工智能进行全栈研究。在不同阶段,人工智能所能够胜任的角色不同。在阶段I,科学的第一推动者、主脑科学家和助手这3个角色均由人类扮演,人工智能的角色仅仅是简单的辅助工具,因此他们给这个阶段的人工智能的科研能力打分为0。到了阶段II,人工智能科研胜任助手的角色了,科研能力提升为1 。而在阶段III,人工智能成为了主脑科学家,也就是此论文所描述的情况。这时候人工智能的科研能力达到2。这里有意思的一点是,在阶段II人工智能已经承担起助手的角色,而在阶段II却重新由人类来做助手。对此,作者的解释是尽管已经有一些专门的人工智能系统可以作为助手,但鉴于机器人和自动化技术目前还不完善,所以仍需要人类参与。
随后,在阶段IV,人工智能已经可以同时胜任主脑科学家和助手的角色了,能力进一步提升到3。到了最后一个阶段,阶段V,人工智能已经可以进行全栈研究了,它最终取代了人类作为科学的第一推动者的角色。
什么是科学的第一推动者?从文章里的例子来看,人类都是提出问题的那一位,而AI负责解答问题、给出方案。通过提问,人类给出了研究的主题和方向,让AI根据这个方向来提出假设。所以在这里,人类是科学的第一推动者。在科研中,有时候提出正确的问题比给出正确的答案更重要。因此第一推动者才是真正推动科学发展的人。那么人工智能怎样才能成为第一推动者?
对于这个问题,研究人员提出了4种可能的方案:
方案1:信使模式严格来说,这个方案里人工智能并不完全是第一推动者,因为它仍需要人类参与传递信息,即作为信使,来预设了一个科学方向。不过它可能是最容易实现的,甚至可能已经实现了。其核心思想是向人工智能提出一个大方向,促使它在给定领域提出一个有价值或有趣的研究问题。然后,我们继续提问,要求人工智能进一步完善研究思路,直到提出一个具体而有价值的科学问题。我们进一步要求人工智能根据这个科学问题来发展科学假设和设计实验。在这个过程中,人类的角色基本上是信使,将人工智能的回答作为后续问题,向AI发问。比如下面这个例子:
方案2:苏格拉底—爱因斯坦模式这个方案需要两个独立的AI系统,其中一个AI善于提问,我们称之为苏格拉底;另一个AI则善于判断问题的科学价值,并作为科研的主脑科学家,我们称之为爱因斯坦。在这个模式里,苏格拉底会不停地向爱因斯坦提问,后者判断其问题的科学性,并对于有价值的问题展开进一步研究。这两个AI的组合就成为了科学的第一推动者。这个方案也不难实现,它基本上是一种对抗模式,就像在生成式对抗网络/GAN中一样。
方案3:蜂群模式在目前的研究里,GPT-4是唯一的AI系统。但在将来,科研里可能会同时用到多个不同的AI系统,它们之间展开多轮对话,相互启发和促进。在它们之间的某次对话中产生的问题可能会推动整个研究,于是它们作为整体就成为了科学的第一推动者。就像一群蜜蜂可以具备群体智能,AI们同样也可以。
方案4:亚里士多德模式这个方案最符合人们对于AI科学家的预期,也是最难实现的。要让AI直接成为科学的第一推动者,根据自己本身科研兴趣和好奇心来提出问题,就像人类科学家那样。这样的AI需要是通用人工智能/AGI。
人类科学家迷失自我?
作者们在论文的最后探讨了关于人类和AI在科研中的主仆关系。随着AI的能力日益强大,承担的角色越来越核心,人类科学家逐渐对其形成了依赖。正如黑格尔所提出的“主仆辩证法”:在一开始,仆人们依赖他们的主人,但随着主人让仆人承担越来越多的责任,主人开始反过来依赖仆人了。同样地,如果人类科学家们让AI承担大部分科研任务,自己逐渐远离科研的第一线,那就会变得过度依赖AI,使自己边缘化。所以作者告诫读者们,即便AI能够极大地促进科研,也要警惕这种在科研中的主仆关系逆转。作者同样也担心人们变得自满,并在AI在图像生成方面挑战人类创造力为例,警示科学家们不要高估人类的独特性,要时时反思人与AI之间的关系。
讨论互动<br>作者提出的让AI成为第一推动者的方案不禁让人遐想。对于苏格拉底—爱因斯坦模式,是否真的需要两个不同的AI系统?还是参照AutoGPT的自我提示模式,自问自答地开展深入的对话?也许一个AI系统完全有能力分饰两角。
作者主要关注的是让AI成为第一推动者,但其实让它们自主进行实验也同样很有前景。从Google的PaLM-E到腾讯的TRX-Arm,我们已经目睹了大模型和机器人相结合所展现的功能。那么在未来,这种拥有具身智能,即PaLM-E中的E, Embodiment机器人或许能够成为实验的执行者。而从具身智能这个思路拓展开来,如果大模型能够通过各种传感器和效应器与现实世界互动,并从互动中获取知识,那么是否意味着将来某个时刻,它会自发地产生一些想法,去改进自己的科研流程?而后更进一步,但AI通过与外界的接触更加了解这个世界之后,是否就会自己提出科学问题,从而成为科学的第一推动者呢?