Skip to content

当大语言模型走进临床科研一线

麦伴科研创始人 黄颂 受邀在北京天坛医院开展《大语言模型与临床科研实践》专题培训

2025 年 12 月 2 日,北京。

在首都医科大学附属北京天坛医院的一间报告厅里,一场并不“传统”的科研培训正在进行。台下坐着的,是来自北京市医师科学家培养计划的优秀青年医生与医师科学家学员;台上分享的,却并不是某一个单一疾病、某一项具体实验技术,而是一个正在迅速改变科研工作方式的新变量——大语言模型(Large Language Models, LLMs)

应天坛医院科技处邀请,麦伴科研(MaltSci)创始人、AI 与科研交叉领域长期实践者 黄颂,为北京市医师科学家培养计划第二期学员带来了一场题为 《大语言模型与临床科研实践》 的系统培训。从人工智能的发展脉络讲起,落脚到临床科研工作流的每一个真实环节,这场持续数小时的课程,既是一堂技术科普课,也是一场关于“科研方式正在发生什么变化”的深度讨论。

从“医师科学家培养计划”说起

为了系统性提升青年医生的临床研究能力,北京市卫生健康委员会于 2024 年正式启动了“北京市医师科学家培养计划”。该计划面向临床经验扎实、具备科研潜力的优秀青年医生,通过高水平导师指导和在高水平研究机构的一年制科研训练,帮助其完成从“临床骨干”向“医师科学家”的跃迁。

首都医科大学附属北京天坛医院,作为该计划的重要临床研究能力培养基地,在 2024–2025 年间为两批学员精心设计了覆盖科研全流程的系列培训课程。从研究设计、数据分析到论文发表,从学术规范到前沿方法,课程目标非常明确:让青年医生真正具备独立提出科学问题、组织高水平研究的能力

在这一背景下,引入“大语言模型与临床科研实践”这一主题,几乎是一个顺理成章却又极具前瞻性的选择。

一位“非典型”讲者的科研视角

在课程伊始,黄颂并没有直接进入“大模型怎么用”的操作层面,而是先花了一定篇幅介绍自己的职业背景。

北京大学计算机专业硕士毕业,曾就职于被称为“人工智能黄埔军校”的微软亚洲研究院;亲身经历桌面软件、互联网、移动互联网到 AI 大模型的四次技术浪潮;在搜索、电商、金融、短视频等多个行业推动 AI 落地;既在全球市值最高的公司中做过研究,也在创业公司里“下过车库”。

而近几年,他将主要精力投入到医学与科研场景中的 AI 应用:作为国家神经系统疾病临床医学研究中心多组学创新中心核心成员,参与 AI 辅助新药研发;同时创立麦伴科研,试图用大模型技术系统性重塑科研工作流程。

正是这样一条横跨 AI 技术、产业实践与医学科研的职业轨迹,使得这场培训从一开始就带有鲜明的“实践导向”——不是抽象地谈 AI 能做什么,而是聚焦:它正在怎样改变科研人员每天的工作

大语言模型之前,人工智能走了多远

在正式讨论大语言模型之前,课程先回到一个看似基础、却经常被混淆的问题:什么是人工智能?

从最早的“苹果识别”问题谈起,到 NASA 对人工智能的定义,再到 1956 年达特茅斯会议提出“Artificial Intelligence”这一概念,课程梳理了人工智能七十余年的发展脉络:

  • 七十年的算法积累
  • 一百多年的算力提升
  • 近三十年的数据爆发

同时,黄颂也专门澄清了科研人员中常见的几个概念混淆:AI、机器学习(ML)、深度学习(DL)之间的关系;监督学习、无监督学习、自监督学习各自擅长解决什么问题。

这一部分的目的并不在于“补课”,而是为了帮助学员建立一个清晰的认知框架:大语言模型并不是凭空出现的魔法,而是长期技术积累在某一时刻的集中爆发

什么是“大语言模型”,以及它为什么重要

真正的转折点,出现在一句很多人已经耳熟能详的话—— “Attention Is All You Need.”

从 Transformer 架构讲起,课程回顾了语言模型的演进简史:从早期的统计语言模型,到神经网络语言模型,再到以 Transformer 为核心的大模型时代;从最初只能补全句子的模型,到逐渐具备指令遵循、上下文学习、复杂推理能力的通用模型。

在这一过程中,几个关键问题被反复强调:

  • “大”到底意味着什么?参数规模、数据规模、上下文窗口
  • 语言模型的核心能力,本质上是预测下一个 token
  • “知识”“推理”“记忆”并不是模块,而是涌现能力

随着模型从单模态走向多模态,语言模型不再只是“会写字”,而是逐步拥有了“看图”“读表”“理解结构化数据”的能力,这也为其进入医学与科研领域奠定了基础。

医疗与科研,是大模型的天然应用场

在随后的章节中,课程将视角聚焦到医疗健康领域的大语言模型(Med-LLMs)

从 BioBERT、PubMedBERT 到 ClinicalT5、GatorTron,从 Med-PaLM、GPT-4-Med 到各类中文医学模型,这一领域的演进路径清晰可见: 一方面是通用模型在医学语料上的适配与增强,另一方面是围绕医学场景的垂直优化——RAG、微调、知识图谱、多模态理解、医疗智能体等。

这些模型的目标并不神秘: 辅助临床决策、提升文献理解效率、增强科研推理能力、降低重复性劳动成本。

但真正引起学员共鸣的,是接下来这一部分。

当大模型开始“爬山”:对科研工作的冲击

课程中引用了 AI 学者 Hans Moravec 提出的“莫拉维克悖论”: 计算机擅长人类觉得难的事(算术、记忆),却长期做不好人类觉得容易的事(理解、语言、感知)。

而大语言模型的出现,恰恰让这张“能力地形图”发生了剧烈变化。

过去需要多年训练的技能,正在被快速压缩:

  • 多年英语听说读写训练,不如模型一次润色
  • 数周文献调研与信息抽取,被 20 分钟的 AI 工作流替代
  • 通宵撰写标书、课题报告,如今可以从一个提纲开始反复迭代

这并不是危言耸听,而是许多科研人员已经在日常工作中真实感受到的变化。

回到现实:临床科研工作流中的 AI 应用

在课程的后半部分,内容开始高度贴近学员的实际工作。

结合《Cell》《Nature》以及 Google DeepMind 等机构的最新报告,课程系统拆解了科研工作的主要阶段与核心痛点,并逐一讨论大语言模型可以介入的位置:

  • 选题与综述阶段:问题澄清、研究空白定位、系统综述生成
  • 文献阅读阶段:快速理解、跨语言阅读、图表与方法解析
  • 知识挖掘阶段:关键信息抽取、证据链梳理
  • 写作与润色阶段:结构优化、语言提升、风格统一
  • 引文与溯源阶段:观点追溯、证据核查
  • 科研作图阶段:机制图、流程图、示意图生成

在这一过程中,课程并没有回避不同工具之间的差异,而是通过对比 SciSpace、Elicit、AMiner、Consensus、Scite 以及麦伴科研自身的能力边界,帮助学员形成理性预期:AI 是工具,不是裁判,更不是作者

科研人员,如何“用好”大模型

课程并未止步于“能做什么”,而是进一步讨论了“怎么用才靠谱”。

从科研人员使用大模型的不同层级谈起:

  • 把它当搜索引擎
  • 把它当写作助手
  • 把它当研究合作者

同时,也坦诚讨论了使用过程中必须正视的风险:

  • 幻觉与文献编造
  • 学术伦理与署名问题
  • 数据隐私与敏感信息泄露
  • 学科知识边界与模型误判

在总结部分,黄颂用一句话概括了自己的期待: 希望 AI 成为繁冗事务的执行者,而科研人员,能把时间和精力留给真正值得思考的问题。

一次培训,更是一种信号

对于天坛医院和“北京市医师科学家培养计划”而言,这次培训并不只是增加了一门新课程,更释放了一个清晰信号:AI 已经不再是“将来某一天”的话题,而是当前科研能力建设的一部分

而对于麦伴科研而言,这样的交流同样意义非凡——它验证了一个朴素的判断:真正有生命力的科研 AI,一定来自真实场景,也必须回到真实科研人员的工作中去。


关于麦伴科研(MaltSci)

麦伴科研(MaltSci) 是一家成立于 2024 年的 AI 驱动科研平台,致力于用大语言模型技术重塑科研工作流程。平台围绕文献检索、科研问答、智能阅读、科研作图、报告生成与引文溯源等核心环节,为科研人员提供从知识发现到成果输出的全流程智能辅助工具。官网是:https://www.maltsci.com

关于创始人

黄颂,北京大学计算机专业硕士,大数据和人工智能资深技术专家,曾任职微软亚洲研究院,在搜索、电商、金融等多个领域拥有丰富的大模型落地实战经验。近年来专注于AI与创新药研发/医疗科研领域的深度融合。 曾亚龙,海外生物医学博士,拥有丰富科研实践经验,长期关注 AI 在科研流程中的真实应用价值。