当前位置: 首页 > 滚动 > 正文

首个千亿参数蛋白质模型 SOTA

来源 : 量子位    时间:2023-07-08 19:11:22

蛋白质领域的“通用大模型”来了!

参数量高达1000亿,在这个领域尚属首次,一出场就在13个任务上达到SOTA——

例如在抗体结构预测任务中,就超越了“老前辈” AlphaFold2 。


(资料图片)

如果说之前蛋白质AI模型还大多停留在单一类型任务上,现在从蛋白质预测到蛋白质设计,各种细分任务都用一个AI就能完成。

这个蛋白质语言模型由百图生科和清华大学共同开发,取名 xTrimoPGLM 。

所以,它究竟在哪些任务上取得了SOTA,这个千亿大模型又究竟是如何炼成的?背后的运作原理和实现方式是什么?

未来在整个生命科学领域,是否也会像自然语言这样,出现类似ChatGPT的通用大模型?

百图生科的CTO 宋乐 博士向我们分享了思考。

蛋白质的“通用大模型”长啥样?

这个名叫xTrimoPGLM的蛋白质语言大模型,“底子”是清华推出的GLM (通用语言模型) 算法。

选用这种算法,是因为人类语言和蛋白质之间存在很多相似之处。

和语言任务一样,蛋白质任务也可以被分为 理解 (预测) 和 生成 (设计) 两大类:

生成 任务,指根据不同条件设计对应的蛋白质。如给定某个功能标签,要求生成能实现这一功能的蛋白质;或是给一段蛋白质结构,设计一段可折叠成该结构的氨基酸序列等。

理解 任务,指预测某种蛋白质的属性。如蛋白质本身是酶,用AI预测它的最优催化温度、催化效率、稳定性等。

但和人类语言一样,在大模型出现前,蛋白质语言模型往往也“只能干好一件事”,同时学多个任务,反而可能把原来的能力给“忘了”。

(毕竟理解类任务通常用的是双向注意力机制,类似完形填空;但生成类任务用的却是单向的,像续写作文一样)

而 GLM 在框架设计上兼顾了大模型的理解和生成能力,因此也成为团队这次的基础架构“首选项”。

不过,相比自然语言模型,蛋白质在训练数据、任务和框架适用性上又有所不同。

为了更好地将GLM的优势和蛋白质语言特性结合起来, xTrimoPGLM 设计了一种新框架,其中增加了MLM (掩码语言模型) 部分。

其中,紫色的[MASK]表示MLM,用于提升模型理解能力;绿色的[sMASK]和[gMASK]表示GLM,用于提升模型生成能力。

具体到细节上,[sMASK]掩盖序列中间的连续部分,模型预测时不仅要学会预测内容,还需要学会预测长度;[gMASK]掩盖除了上下文之外的其余序列部分,以进一步提升模型的生成能力。

不过,即使是Meta的蛋白质理解模型ESM,参数量也就在150亿级别左右。

为何xTrimoPGLM模型参数量会达到 千亿级 ?

宋乐博士介绍称,这是因为蛋白质的数据比想象中要更大:

更大的数据量,自然需要更大的模型来“吃”。

在大语言模型已经达到千亿级参数量的情况下,蛋白质语言模型理论上也应达到这一规模,才能实现比Meta的ESM更好的效果。

基于这一理念设计的xTrimoPGLM,确实在理解和生成任务上均取得了不错的效果。

斩下13个SOTA,可直接用于行业

研究人员一共将xTrimoPGLM在15个任务上进行了测试。

事实证明,这个蛋白质语言模型在其中的13个任务上都取得了SOTA。

这些任务从蛋白质结构、可发展性、相互作用到功能分为四大类,具体又包括评估蛋白质特性,如溶解性、对蛋白酶的稳定性、温度敏感性、蛋白质结合亲和力、抗生素抗性等。

以抗体结构预测为例。据宋乐博士介绍,和AlphaFold2相比,xTrimoPGLM不仅效果更好,而且速度 快了接近一个数量级 。

之所以能做到在模型更大的同时,预测速度还更快了,是因为相比AlphaFold2,xTrimoPGLM“跳了一步”:

在此基础之上,xTrimoPGLM不仅能很好地提供蛋白质序列信息,模型能力也得到了增强。

宋乐博士认为,不止是抗体结构预测,类似思路也能被推广到更通用的蛋白质结构预测上去,这也在团队的下一步计划之内。

不仅如此,团队还计划把模型扩展到RNA、DNA等不同模态的生命科学数据上,甚至是跨细胞、跨组织层面,尝试实现更加通用的 生命科学大模型 。

当然,目前这一阶段的xTrimoPGLM,就已经能 直接提供给行业使用 了。

从它能实现的任务来看,已经涵盖了不少蛋白质下游应用的场景,如涉及蛋白质的相关酶的设计,以及医药食品行业的一些消费级蛋白质预测任务,都可以直接用xTrimoPGLM去帮助解决。

据宋乐博士介绍,xTrimoPGLM未来也会接入到百图生科的AI生成蛋白平台 AIGP 中去,负责如抗体结构预测、亲和力预测和蛋白质相互作用预测等任务。

One More Thing

目前来看,发展“通用大模型”的路径主要有两种。

一种是继续扩大 单个模型 的参数量,试图达到真正的单个AGI之路;

另一个则是通过 多个模型 联合的如Mixture of Experts等方式,将负责不同任务类型的大模型之间联合起来,以实现更多功能。

这两条路各有其优缺点所在。如果要想继续发展生命科学领域的“通用大模型”,哪条路径更有可能通往AGI?

宋乐博士认为“都有可能”。

不过就百图生科团队而言,他们仍然采取多个大模型联动的方式,来继续探索通用大模型之路。

论文地址: https://www.biorxiv.org/content/10.1101/2023.07.05.547496v1

— 完 —

量子位 QbitAI · 头条号签约

关注我们,第一时间获知前沿科技动态

X 关闭

精心推荐

Copyright ©  2015-2022 时代建筑网版权所有  备案号:   联系邮箱: 514 676 113@qq.com