从大模型全面铺开的时候起,我就常常听到一种极其乐观的论调,以为只要给屏幕那头的对话框敲上几行指令,AI 就能顺理成章地替人类搞定一切复杂的科研分析,甚至写出可以直接见刊的论文。这种把技术当成魔法的预期固然是一种讨喜的时代情绪;但在真正跟实验数据打过交道的人看来,现实其实要骨感得多。当你真把一个诸如“寻找肺癌靶点 EGFR 的新型抑制剂”这样的任务扔给通用大模型时,它多半会用一套极为漂亮的车轱辘话把你绕晕,或者写出一段看似工整、实则根本跑不通的代码。通用模型什么都懂一点,却又什么都不精深;盖它们在预训练时吞下的是海量文本,却没有真正接入过那些深浅不一、接口古怪的科学数据库。它们知道基因组学和计算化学这些词汇,却不知道该怎么精准调用 ChEMBL 或是 UniProt 的接口,这就让通用 AI 在面对真正的科研工作流时,永远带着一股业余的塑料味。
要扭转这种隔靴搔痒的局面,并不需要再去费心训练一个专门懂生物或化学的千亿参数模型,毕竟算力与数据的硬约束就横在那里;更务实的做法是给这些已经足够聪明的通用大脑配上一套趁手的专业工具。Scientific Agent Skills 也就是在这样的背景下出现的,它倒不是什么新造的语言大模型;本质上,这是一套挂载在 Cursor 或 Claude Code 等智能体上的专业技能集。这套工具库里打包了一百三十五项现成的科研技能,不仅囊括了从生物信息学、药物发现到材料科学的各个前沿领域,更直接打通了七十八个公共科学数据库的访问接口。不管你是要用 Scanpy 跑单细胞 RNA 测序的质控,还是要用 RDKit 做分子属性的预测,抑或是让 AI 自己去查阅临床试验数据,它都预先写好了极为详尽的调用规范与最佳实践。有了这些明确的指引,AI 也就无须再去猜测那些晦涩的应用程序接口到底该怎么传参,而是能像一个真正懂行的研究员一样,单凭一条自然语言指令,就跑通那些包含着文献检索、分子对接和图表生成的复杂流程。
我总怀疑,那些热衷于用大模型颠覆科学的口号,多半是出于对具体实验流程的无知。科研本来就是一门极其讲究手艺与确切性的行当,差一个参数,结果便失之毫厘、谬以千里。Scientific Agent Skills 的聪明之处,恰恰在于它不去碰那些代替人类思考的宏大命题;把具体执行的脏活累活做好,才是它真正下功夫的地方。它把诸如 PyTorch Lightning、scikit-learn 乃至于各类天文与地理空间分析的开源包,全都变成了大模型可以直接调用的具象技能,每一个技能里都塞满了经过验证的代码示例与整合指南。这乃是在通用 AI 与专业领域之间搭建了一座坚实的桥梁;大模型固然聪明,但只有当它拥有了这些经过专业打磨的“手”和“眼睛”时,它才敢拍着胸脯去处理医疗影像、优化代谢工程,或者生成可以直接用于发表的统计图表。这也让人未尝不感慨,在所谓的人工智能时代,真正拉开差距的往往不是模型本身的智商,而是你手头究竟掌握了多少能让这智商落地的专业锚点。
工具再好,终究也只是工具罢了。把通用的 AI 变成懂行的科研助手,Scientific Agent Skills 确实提供了一条最现成的捷径;但在这些精密运转的代码背后,决定科研走向的,依然是人类提出假设与辨别真伪的眼光。工具替我们省下了翻阅接口文档的几天时间,这何尝不是件好事;但省下来的时间究竟是拿来做更有价值的思考,还是制造更多看似高深实则空洞的学术垃圾,也就全凭使用者自身的定力了。那么,在日常的工作中,你又遇到过哪些让通用 AI 束手无策的专业壁垒?不妨在评论区里说说你的经历。
https://github.com/K-Dense-AI/scientific-agent-skills