摘要

人工智能(AI)在医疗保健应用中具有巨大潜力,但由于医疗保健数据的多样性、可能任务的复杂范围以及需要保护隐私的要求,其训练和部署具有挑战性。在各种医疗任务上表现良好且需要较少特定任务调整数据的基础模型,对于加速开发用于医疗保健应用的AI至关重要。在本技术报告中,我们介绍了MedGemma,这是基于Gemma 3 4B和27B的新一批医疗视觉-语言基础模型集合。MedGemma在图像和文本上展示了先进的医学理解和推理能力,显著超越了类似大小的生成模型的性能,并接近特定任务模型的性能,同时保持了Gemma 3基础模型的通用能力。对于超出分布的任务,与基础模型相比,MedGemma在医学多模态问答上提高了2.6-10%,在胸部X光发现分类上提高了15.5-18.1%,在代理评估上提高了10.8%。微调MedGemma进一步提升了子域性能,电子健康记录信息检索的错误减少了50%,并且在气胸分类和组织病理学补丁类型分类方面达到了与现有专业最先进方法相当的水平。我们还介绍了MedSigLIP,这是从SigLIP衍生出的医学调整的视觉编码器。MedSigLIP增强了MedGemma的视觉理解能力,作为编码器,其性能可与或优于专业的医学图像编码器相媲美。综合来看,MedGemma集合提供了强大的医学图像和文本能力基础,具有显著加速医学研究和下游应用开发的潜力。有关MedGemma集合的更多详细信息,包括下载模型权重的教程和说明,可在https://goo.gle/medgemma找到。

  • https://deepmind.google/models/gemma/medgemma/

  • https://research.google/blog/medgemma-our-most-capable-open-models-for-health-ai-development/

  • https://medgemma.org/

一、核心速览

01.研究背景

  1. 研究问题

    :这篇文章要解决的问题是如何在医疗领域利用人工智能(AI)进行有效的图像和文本理解,特别是针对医疗图像和文本的多模态任务。

  2. 研究难点

    :该问题的研究难点包括:医疗数据的多样性和复杂性、任务范围的广泛性、数据隐私保护的必要性以及模型泛化能力的提升。

  3. 相关工作

    :该问题的研究相关工作包括:最近开发的大型多模态模型(LMMs)在检测复杂模式、生成连贯文本和处理视觉信息方面的显著能力;然而,通用模型在医学理解和数据解释方面存在不足。

02.研究方法

这篇论文提出了MedGemma,一套基于Gemma 3的医学视觉-语言基础模型。具体来说,

  1. 模型架构:MedGemma模型架构基于Gemma 3,采用SigLIP 400M作为视觉编码器。输入图像分辨率为896x896,像素值归一化到[-1, 1]。语言模型部分也遵循Gemma 3,具有任意图像-文本交错和长上下文(128k)。

  2. 数据预处理:图像填充和调整大小算法与Gemma 3相同,但图像调整为896x896分辨率。使用SentencePiece分词器,包含262,000个条目。对于CT图像,选择三个窗口并转换为RGB颜色通道以突出显示骨骼和肺部、软组织、大脑。

  3. 这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

  4. 预训练和多模态解码器预训练:首先对视觉编码器进行微调,使用超过33M的医疗图像-文本对。然后,在原始Gemma 3预训练检查点上继续预训练,混合医疗图像数据(10%)进行约5个epoch的训练。

  5. 后训练:在后训练阶段,结合蒸馏和强化学习(RL)进行进一步训练。蒸馏阶段加入医疗文本数据,RL阶段使用配对的医学成像数据进行训练。

03.实验设计

  1. 数据集

    :训练数据集包括文本数据集和多媒体数据集。文本数据集从多个医学问答数据集中采样,包括MedQA、MedMCQA、PubMedQA等。多媒体数据集包括MIMIC-CXR、CheXpert、PathMCQA等。

  2. 数据预处理

    :图像填充和调整大小算法与Gemma 3相同,但图像调整为896x896分辨率。使用SentencePiece分词器,包含262,000个条目。对于CT图像,选择三个窗口并转换为RGB颜色通道以突出显示骨骼和肺部、软组织、大脑。

  3. 模型训练

    :预训练和多模态解码器预训练在原始Gemma 3预训练检查点上进行,混合医疗图像数据(10%)进行约5个epoch的训练。后训练阶段结合蒸馏和强化学习(RL)进行进一步训练。

04.结果与分析

  1. 医学文本问答:在MedQA、MedMCQA、PubMedQA等医学问答任务上,MedGemma 4B模型表现优于标准Gemma 3模型,并且在许多情况下与更大的模型竞争。

  2. 医学图像分类:在MIMIC-CXR、CheXpert、PathMCQA等医学图像分类任务上,MedGemma 4B模型表现显著优于Gemma 3基线模型,并且与更大的API模型相当。

  3. 医学视觉问答:在SLAKE和VQA-RAD等医学视觉问答任务上,MedGemma 4B模型表现优于标准Gemma 3模型,并且在许多情况下与更大的模型竞争。

  4. 胸部X光报告生成:在MIMIC-CXR数据集上,MedGemma 4B模型生成的报告在印象和发现部分的表现接近或优于原始放射科医生的报告。

  5. 代理行为:在AgentClinic模拟临床环境中,MedGemma 27B模型表现优于Gemma 3 27B模型,并且在某些情况下接近更大模型的性能。

05.总体与展望

这篇论文展示了MedGemma模型在多种医学视觉-语言和文本任务中的强大能力。MedGemma模型在医学图像和文本理解方面表现出色,并且在细分子任务上通过微调进一步提升了性能。MedGemma模型的开放性和灵活性使其成为医疗AI应用开发的有力起点。

MedGemma作为Google DeepMind的旗舰级医学AI,适配多模态(图文)和深度文本分析场景,且上手门槛低,开放性强,是开发智能医疗产品、医学研究创新与辅助临床决策的极具潜力的基础设施。

未来,MedGemma将在多语言医学术语和更广泛的场景适配方面持续优化,也将在临床监管合规和实际医疗流程中扮演越来越重要的角色

二、论文评价

01.优点与创新

  1. 医学领域的优化

    :MedGemma模型在预训练和微调阶段都优化了医学领域的数据,显著提高了在各种医学基准测试上的性能。

  2. 多模态能力

    :MedGemma模型不仅能够处理文本,还能处理图像,展示了其在多模态任务中的强大能力。

  3. 细粒度医学理解

    :MedGemma在医学图像分类、视觉问答和报告生成等任务中表现出色,展示了其在医学领域的细粒度理解能力。

  4. 细调提升性能

    :通过在特定领域(如胸部X光报告生成、组织病理学分类和电子健康记录信息检索)进行细调,MedGemma的性能进一步提升。

  5. MedSigLIP

    :引入了MedSigLIP,一个医学调优的视觉编码器,进一步增强了MedGemma的图像解释能力。

  6. 开放模型

    :MedGemma和MedSigLIP模型是开源的,便于社区广泛评估、改进和适应。

  7. 多样化的应用场景

    :MedGemma模型适用于多种应用场景,包括医学图像检索、临床决策支持、患者匹配和研究队列开发等。

02.不足与反思

  1. 自动化基准的局限性

    :尽管自动化基准提供了初步的验证,但它们并不代表真实世界的实用性。未来的工作需要在新、高质量的基准上进行评估,以更好地反映真实世界的应用。

  2. 基准饱和

    :一些基准可能已经接近饱和,进步空间有限,这阻碍了对进展的测量。

  3. 实际应用开发的性能和能力需求

    :需要进一步理解实际应用开发中的性能和能力需求,包括在代理框架中的整合。

  4. EHRQA数据集的限制

    :EHRQA数据集中缺乏临床笔记,未来工作将致力于解决这一问题。

  5. 模型版本扩展

    :未来的研究将开发具有扩展能力的未来模型版本,以满足更广泛的用例需求。

三、关键问题及回答

问题1:MedGemma模型在医学图像分类任务上的具体表现如何?

在医学图像分类任务上,MedGemma 4B模型表现显著优于Gemma 3基线模型,并且与更大的API模型相当。具体来说,MedGemma 4B在MIMIC-CXR、CheXpert、PathMCQA等数据集上的分类准确率分别达到了88.9%(MIMIC-CXR)、48.1%(CheXpert)和69.8%(PathMCQA)。这些结果表明,MedGemma模型在处理医学图像分类任务时具有较高的准确性和鲁棒性。

问题2:MedGemma模型在胸部X光报告生成任务上的表现如何?

在胸部X光报告生成任务上,MedGemma 4B模型生成的报告在印象和发现部分的表现接近或优于原始放射科医生的报告。具体来说,使用RadGraph F1指标评估,MedGemma 4B在MIMIC-CXR数据集上的表现为29.5,接近现有最先进模型的表现(30.0)。此外,人类专家评估显示,68%的正常研究和49%的异常研究报告与原始报告相当或更好,总体上有81%的报告在临床决策上与原始报告一致或更优。

问题3:MedGemma模型在代理行为任务上的表现如何?

在代理行为任务上,MedGemma 27B模型表现优于Gemma 3 27B模型,并且在某些情况下接近更大模型的性能。具体来说,在AgentClinic模拟临床环境中,MedGemma 27B在文本环境下的AgentClinic-MedQA准确率为56.2%,在多模态环境下的AgentClinic-MIMIC-IV准确率为46.0%。这些结果表明,MedGemma模型能够在复杂的模拟临床环境中有效地进行对话驱动的患者病史采集、检查和诊断。

四、如何学习AI大模型?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

 

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。


👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。


1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

 

Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐