2025-08-08 23:33来源:本站
自从ChatGPT登上世界舞台已经有一年了。这款由人工智能驱动的文本生成器以其令人信服和自然的回复而闻名,很快就受到了欢迎——目前它的用户已接近2亿。但一年之后,问题依然存在,那些支持ChatGPT等工具的大型语言模型(llm)是否对科学有用,还是仅仅是一种干扰。
“聊天机器人”并不是一项新发明,最早可以追溯到20世纪60年代。然而,近年来,使用大量数据来训练它们的能力正在加速该领域的发展。一些机器人接受了互联网上纷乱的海量数据的训练,或许不出所料,它们的“父母”会因为满嘴脏话而感到尴尬。研究人员很快发现,虽然像ChatGPT这样复杂的聊天机器人可以为基本的科学问题提供合理的答案,但当遇到更技术性的问题时,它们很快就会陷入困境。诸如此类的例子导致法学硕士被批评者斥为仅仅是“貌似有理的句子生成器”。因此,在互联网上培训法学硕士,而不过滤内容和可靠性,显然不会是创造有用的人工智能实验室助手的赢家。那么另一种选择是什么?
一个显而易见的解决方案是在可信数据源上对它们进行培训。这就是研究人员对ChemCrow所做的事情。ChemCrow是一名法学硕士,利用真正的化学工具学会了自己的行业。一旦连接到一个自动合成平台,ChemCrow就可以被告知,例如,制造一种驱蚊剂。然后,它利用可靠的来源进行研究,计划合成并生产出一种已知的驱蚊化合物。
法学硕士也在接受化学期刊方面的培训。在一个案例中,一个“ChatGPT猎人”被创造出来,它能以令人印象深刻的准确性判断一篇化学论文是否是用法学硕士写的。
尽管有这样的例子,人们仍然怀疑法学硕士在科学领域的用处。虽然ChemCrow的演示令人印象深刻,但它所取得的成就并不超出博士候选人的技能。此外,将手稿检查外包给机器人也存在明显的担忧。更广泛的问题是可重复性和人工智能的黑箱性质——当这些工具得到答案时,没有人能确切地说会发生什么。我们需要的是时间去思考。法学硕士和他们的同类都是工具。正确地使用它们需要时间,因为我们要了解它们的局限性。尽管有这些警示性的话,但对于人工智能实验室助手的想法,很难不感到一丝兴奋。开创未来!
帕特里克是《化学世界》的新闻编辑
G之前在科学期刊上做过各种各样的工作,为社会通讯撰稿,还做过编辑和写作工作。查看完整档案