切换到宽版
  • 76阅读
  • 2回复

[智能应用]DeepSeek推理大模型震惊世界,中国药企如何借势AI革命[4P] [复制链接]

上一主题 下一主题
在线huozm32831

UID: 329002

精华: 1097
职务: 超级斑竹
级别: 玉清道君
 

发帖
108123
金币
6183
道行
19523
原创
29308
奖券
17521
斑龄
193
道券
10538
获奖
0
座驾
 设备
EOS—7D
 摄影级
专家级认证
在线时间: 20989(小时)
注册时间: 2007-11-29
最后登录: 2025-03-12
只看楼主 倒序阅读 使用道具 楼主  发表于: 昨天 17:43

人工智能逐渐成年、大模型纷飞、军备竞赛加剧、国产大模型腾飞,特别是推理大模型盛行,在这样的国内外大势下,作为科研工作者、研发型药企,我们该如何甄别和拥抱人工智能?
作为AI+药物的资深参与者,AI+药物递送和AI+纳米材料的开启者,剂泰医药将围绕以下两个核心话题展开讨论:
1、什么是大模型和推理大模型?
2、药企使用大模型的几种模式。
在第一期,我们将先为大家科普大模型和推理大模型。下一期,我们将结合当前的形势分析大模型和大模型算法在药企落地的思路。
什么是大模型?
简单来说就是基于大数据进行训练,具有非常大参数量和复杂结构的深度学习模型。
大数据指的通常是能收集到的大量自然语言语料,既包含了日常对话,又包含了人类文明和智慧的结晶,可以类比为人的大脑接收到的大量听觉、视觉信息。
大参数量指的是由于需要训练大量数据,就需要深度学习具有很大的网络来融会贯通这些数据,可以类比为大脑的神经元。
这两者的完成需要另一个铁三角,算力,大量的数据存储和计算需要载体或者计算资源,通常是GPU,可以类比为大脑处理信息所需要的能量和脑容量。
大模型的崛起和Transformer架构分不开,Transformer的本质是可以利用注意力机制,找到每个Token(可以理解为词语)之间的相互关系,使机器学会语言的前后联系,融会贯通。大模型的学习类似于人的学习,通过完形填空(masking)和组词(next token prediction)等方式帮助大家理解(encoder,BERT)和生成语言(decoder,GPT)。
大模型的预训练类似于题海战术学习备考,推理类似于最后的考试,题海覆盖越广、理解越深,最后的考试就答得越快越好。或者说,预训练可以类比于在学校的学习,而另一个概念微调就类似于毕业后的就业,同一个知识体系可以做科学家也可以做管理者,只是后期的细分不一样。
剂泰医药AiLNP平台的脂质语言模型(LipidBERT)和脂质生成模型(PhatGPT)就分别是对特殊而专业的脂质语言做的理解和生成。
剂泰医药从成立以来就一直专注的干湿迭代也在预训练和微调上找到了最佳实践,用剂泰专有的脂质和LNP干实验数据预训练,用剂泰专有的高通量湿实验数据库做微调,打造了世界上第一个基于预训练+微调的脂质语言和生成模型,让人工智能学习脂质的语言,可以根据“看”过的脂质结构和实验数据,“理解”脂质和LNP的内在语境,“说”出全新的脂质话语和性质。
剂泰的AiRNA平台同样融合了对蛋白和RNA等生物语言的理解和生成,干湿迭代,和AiLNP交相呼应,一个设计核酸内核、一个设计LNP外壳,内外兼修,将核酸分子精准递送到各个器官和细胞。

图1:基于强化学习、Transformer、GPT、Diffusion,融合了干湿迭代的剂泰医药千万级别脂质库缩影
什么是推理大模型?
scaling law认为模型的效果和训练数据、参数量以及算力直接相关,三个方面越大,效果越好,欧美的大模型追求大大大,促生了大模型的军备竞赛。
但科学家们发现,大到一定程度后,成本居高不下,效果未必提高得那么快。大家发现,一昧地只疯狂训练,大未必佳,推理是被忽略的一个点。
早期大模型和推理大模型的区别,本质上就是人们从关注train-time scaling law转向也同时关注test-time scaling law。其实以著名的Chain of thought(思维链)为首的Prompting(提示词)到In-context learning(语境学习),大家也在关注回答问题的思维模式,激发模型的推理能力。但这些方法都并没有对模型本身的知识体系产生影响,没法让模型自主地做更深层次的推理。
从OpenAI的o1模型开始,大家开始真正关注从模型内部改变推理的模式,教模型怎么推理,让模型自主推理,改变模型的思维模式。而DeepSeek-R1将推理大模型打上了中国的标签,标志了中国大模型的腾飞,它将推理数据、强化学习和SFT(有监督微调)穿插使用,融会贯通,使大模型在做高难度数学题和复杂问题推理上的能力达到世界最先进水平,并完全开源,真正做到强大又透明。
这里提到的推理大模型虽然也是基于思维链(CoT),但和早期的CoT存在本质区别。早期的CoT是通过改变模型外部或后期的思维模型间接地、暂时地改变模型的推理,推理大模型则是通过显式的CoT数据通过强化学习或有监督微调本质上改变模型的推理模式,从内而外直接地、永久地教模型推理。
用一个例子解释,前文提到大模型用预测下一个字符的方式,依次根据前面累积的字符输出下一个字符的概率分布,从而确定下一个字符。假设模型得到的问题是:“张三有3个苹果,4个香蕉,其中1个香蕉是烂的,请问张三有几个不烂的苹果?”
正常按照预测下一个字符的思想,模型会根据以上的序列直接输入下一个字符,有可能会出现8、4或2等错误答案,其实不包含太多计算,只是通过学习了各种语言,输出概率最大的下一个字符,简单的问题没有问题,但遇到复杂的计算就会出错。
而推理大模型下,机器可能输出的下一个字符可能是“第”或“让”,这两个字符可能就会逐步触发下面的“第一,我们先”、“让我们分步思考”、“让我们列个方程”、“让我首先理解一下这个问题”等,然后通过模型学到的推理步骤逐步展开,在各步骤里通过不同的搜索和采样方式,根据从强化学习等方法学到的方法,选取合适的推理过程,最终给出答案,这样的一步步推理在比以上问题难很多的复杂问题上非常有用。

图2:DeepSeek和OpenAI模型效果对比(来自DeepSeek的文章)

图3:大模型排名榜(来自权威的大模型竞技场)
DeepSeek-R1自从发布以来,不停刷榜,也刷新了人类对于中国大模型的认知。DeepSeek发扬了中国的务实精神,不盲目追求模型大,而是以更聪明的方式去优化算法、工程和硬件模式和高质量数据,打了一场漂亮的游击战和反击战。
DeepSeek将传统Transformer架构中的attention模块进行了优化,也优化了KV缓存,使效率更高,并将FFN(前馈神经网络)换成了MoE(混合专家模型)。MoE里的专家可以类比为多位不同科室的专家,根据来的病人(语料)的不同,通过一个类似于分诊台的gating(门控)的模式选择合适的一位或几位医生,通过会诊的形式进行治疗,其中还增加了一位Shared expert,让这位医生参与每次诊断,可以具备交叉知识。相比于要求一个医生精通所有类别,这样的方式操作难度小。
DeepSeek-R1-Zero完全通过强化学习,而不通过有监督微调,用一个简单的指令教模型推理,并对格式做出要求,甚至不包含显式地要求模型分步思考、自我反省等指令,用格式奖励和回答正确两种奖励就让模型具备了一定的推理技巧。
值得一提的是,最新出炉的2024年ACM图灵奖授予了两位强化学习的先驱Andrew Barto和Richard Sutton,图灵奖号称“计算机领域的诺贝尔奖”,强化学习的获奖也代表了计算机界对强化学习广泛应用的认可。
在发现Zero模型出现缺陷之后,DeepSeek团队针对Zero模型答案的可读性不强和语言混乱等问题做了优化,用了两次强化学习和两次有监督微调,加入了语言奖励和偏好奖励,并用自己高质量推理思维链数据集、通用数据集以及模型自己产生的合成数据对模型进行训练,最终达到了世界顶级水平。
剂泰的AiLNP和AiRNA平台都用到了强化学习,反复迭代模型,用AI提高实验效率,更快找到最优解。其中AiLNP更是在领域无脂质结构数据的基础上,根据内部药化和计算化学专家的理解设计奖励函数,只通过强化学习产生高质量的合成数据,结合实验反复迭代,最终形成了世界上第一个、最大、最多样性的脂质库。基于脂质库又通过预训练和有监督微调等方法开发了多个语言和生成模型。在整体架构上,剂泰的AiLNP和DeepSeek有异曲同工之妙,在通用领域和纳米材料设计领域相映成趣,从应用端证明了强化学习图灵奖的实至名归。
DeepSeek的另一个亮点是将蒸馏模型发扬光大,他们利用R1强大的推理能力做为老师,教学生(小的模型)推理能力,使小模型快速、有效地传承推理能力,证明了蒸馏的有效性,并适可而止,给了大家自主探索的空间。这类模型使大家特别是个人,在自己有限的资源下可以跑起小一点的(蒸馏、量化)大模型,自己设计、完成想要完成的任务,DeepSeek真正起到了大模型的使者和传播者的作用。
DeepSeek的最后一个亮点是,部分绕开CUDA库,直接通过更底层的PTX汇编语言来开发模块,提高了效率,虽然目前还没法撼动强大的CUDA生态护城河,但为未来的开发埋下了伏笔,他们创造的一种绕开欧美技术垄断的可能性就已经足够给人以强大的信心。
推理大模型的盛行给我们药物研发人员提出了一个问题,现在的大模型走的思维链、严密推理路线,越来越接近我们做科研的思路。我们是否应该改变最开始面对大模型的有保留地接受的思路,不故步自封,主动出击寻找大模型最好的落地场景?下一期我们将抛砖引玉,为大家带来大模型和大模型算法在药企的落地思路解析。
山庄提示: 道行不够,道券不够?---☆点此充值☆
 
  




    
在线jjybzxw

UID: 551814


发帖
134112
金币
8621
道行
1968
原创
2321
奖券
2418
斑龄
31
道券
873
获奖
0
座驾
设备
摄影级
在线时间: 31804(小时)
注册时间: 2008-10-01
最后登录: 2025-03-12
只看该作者 沙发  发表于: 昨天 23:45
什么是大模型和推理大模型?

大模型是指基于大数据进行训练,具有非常大参数量和复杂结构的深度学习模型。具体来说,它包括以下几个关键要素:

1. 大数据:通常指能收集到的大量自然语言语料,既包含了日常对话,又包含了人类文明和智慧的结晶。这可以类比为人的大脑接收到的大量听觉、视觉信息。
2. 大参数量:由于需要训练大量数据,深度学习模型需要具有很大的网络来融会贯通这些数据。这可以类比为大脑的神经元。
3. 算力:大量的数据存储和计算需要载体或者计算资源,通常是GPU。这可以类比为大脑处理信息所需要的能量和脑容量。

大模型的崛起与Transformer架构密切相关。Transformer利用注意力机制,找到每个Token(可以理解为词语)之间的相互关系,使机器学会语言的前后联系,融会贯通。大模型的学习类似于人的学习,通过完形填空(masking)和组词(next token prediction)等方式帮助大家理解(encoder,如BERT)和生成语言(decoder,如GPT)。

推理大模型则是在此基础上进一步强调推理能力的提升。传统的大型语言模型主要依赖于大规模的数据训练,但在推理能力上有所欠缺。推理大模型通过显式的思维链(CoT)数据、强化学习或有监督微调(SFT)来改变模型的推理模式,使其能够更好地理解和解决复杂问题。

例如,假设模型得到的问题是:“张三有3个苹果,4个香蕉,其中1个香蕉是烂的,请问张三有几个不烂的苹果?”传统的大型语言模型可能会直接输出一个错误的答案,因为它们只是通过学习各种语言输出概率最大的下一个字符。而推理大模型则会逐步触发“第一,我们先”、“让我们分步思考”等推理步骤,最终给出正确的答案。

药企使用大模型的几种模式

药企在使用大模型时,可以根据自身的需求和资源选择不同的模式。以下是几种常见的模式:

1. 预训练+微调:这是最常见的模式。药企可以使用现有的大规模预训练模型,并根据自己的特定需求进行微调。例如,剂泰医药的AiLNP平台使用专有的脂质和LNP干实验数据进行预训练,再用高通量湿实验数据库进行微调,从而打造了世界上第一个基于预训练+微调的脂质语言和生成模型。

2. 强化学习:强化学习是一种通过试错来优化决策过程的方法。药企可以通过强化学习不断迭代模型,提高实验效率,更快找到最优解。例如,剂泰医药的AiLNP平台在领域无脂质结构数据的基础上,通过设计奖励函数并反复迭代,最终形成了世界上最大、最多样性的脂质库。

3. 蒸馏模型:蒸馏模型是指利用一个强大的教师模型来指导一个小的学生模型学习。这种方法可以使小模型快速、有效地传承大模型的能力,特别适用于资源有限的情况。例如,DeepSeek利用R1强大的推理能力作为教师模型,教导小模型快速掌握推理技巧。

4. 自定义数据集:药企可以根据自身的需求构建专门的数据集,并用于训练或微调大模型。这种模式可以确保模型更加贴近实际应用场景。例如,剂泰医药的AiRNA平台融合了对蛋白和RNA等生物语言的理解和生成,并通过干湿迭代不断优化。

结论

在当前人工智能迅速发展的背景下,科研工作者和研发型药企应积极拥抱大模型技术。通过了解大模型和推理大模型的基本原理,并结合自身需求选择合适的使用模式,药企可以在药物研发过程中实现更高的效率和更好的成果。下一期我们将继续探讨大模型和大模型算法在药企的具体落地思路。
如何不发帖就快速得到金币道行
 
在线姜谷粉丝

UID: 1569053

精华: 2
级别: 玉清道君

发帖
121443
金币
55948
道行
20019
原创
750
奖券
34
斑龄
0
道券
0
获奖
0
座驾
设备
摄影级
在线时间: 12340(小时)
注册时间: 2012-06-21
最后登录: 2025-03-12
只看该作者 板凳  发表于: 16小时前
DeepSeek推理大模型震惊世界,中国药企如何借势AI革命
DeepSeek推理大模型概述
DeepSeek推理大模型以其卓越的性能和广泛的应用前景,引起了全球范围内的广泛关注。该模型不仅在全球AI领域取得了显著成就,还标志着中国在AI领域的重大进展。

DeepSeek的核心特点
高性能:DeepSeek推理大模型在多项国际竞赛中表现出色,特别是在数学问题和复杂问题推理上达到了世界领先水平1。
低成本:与同类国际大模型相比,DeepSeek的训练成本显著降低,仅为OpenAI o1模型的1/102。
开源生态:通过开源其核心技术,DeepSeek推动了全球AI技术的普及和发展2。
DeepSeek的技术创新
强化学习和SFT结合:DeepSeek采用了强化学习、Transformer架构、GPT和Diffusion等多种先进技术,实现了推理能力的显著提升1。
预训练与微调相结合:通过预训练和微调的结合,DeepSeek能够更深入地理解和生成语言,特别是针对脂质语言和生物语言的理解1。
中国药企借势AI革命的策略
面对DeepSeek推理大模型的崛起,中国药企需要积极拥抱这一技术革命,以实现自身的转型升级。

药企使用大模型的模式
预训练模型应用:药企可以利用预训练的大模型进行特定领域的微调,以提高药物研发效率和质量1。
生物信息学分析:通过大模型对生物信息学数据的分析,药企可以更准确地预测药物靶点和药物相互作用2。
具体案例分析
剂泰医药的实践:剂泰医药通过其AiLNP平台和AiRNA平台,成功地将大模型应用于脂质语言理解和生成,以及核酸分子精准递送等领域1。
联合开发与创新:药企可以与DeepSeek等AI公司合作,共同开发针对特定疾病的大模型,加速新药的研发进程2。
未来展望
随着DeepSeek推理大模型的广泛应用,中国药企有望在全球医药市场中占据重要地位。

技术创新带来的机遇
产业升级:AI技术的引入将推动医药行业的数字化转型,提高研发效率和产品质量3。
国际合作:通过与国际知名AI公司的合作,中国药企可以提升自身的国际竞争力,拓展海外市场2。
政策支持与产业发展
政策支持:国家和地方政府对人工智能和大模型的支持政策将进一步推动产业的发展3。
产业链完善:随着算力基建、数据要素和应用场景的不断发展和完善,中国药企将迎来更多的发展机遇2。
总之,DeepSeek推理大模型的崛起为中国药企提供了宝贵的机遇。通过积极拥抱AI技术,不断创新和应用,中国药企有望在全球医药市场中占据重要地位,实现可持续发展。
如何不发帖就快速得到金币道行
 
我有我可以
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个