Copyright © 2022-2025 aizws.net · 网站版本: v1.2.6·内部版本: v1.24.2·
页面加载耗时 0.00 毫秒·物理内存 69.1MB ·虚拟内存 1235.0MB
欢迎来到 AI 中文社区(简称 AI 中文社),这里是学习交流 AI 人工智能技术的中文社区。 为了更好的体验,本站推荐使用 Chrome 浏览器。
5 月 21 日消息,科技媒体 marktechpost 昨日(5 月 20 日)发布博文,报道称在 2025 年 I/O 开发者大会上,谷歌针对多模态医疗文本和图像理解,推出了 MedGemma 开源模型。
MedGemma 基于 Gemma 3 架构,提供 4B 参数的多模态模型(分类)和 27B 参数的纯文本模型两种配置,4B 模型擅长分类和解读医疗图像,可生成诊断报告或解答图像相关问题;27B 模型则擅长临床文本,支持患者分诊和决策辅助。
MedGemma 4B 拥有 40 亿参数,采用 SigLIP 图像编码器,预训练数据涵盖胸部 X 光、皮肤病学、眼科及组织病理学图像;MedGemma 27B 则有 270 亿参数,专注于医疗文本理解与临床推理,适合需要深入文本分析的任务。
模型既能本地运行用于实验,也可通过 Google Cloud 的 Vertex AI 部署为 HTTPS 端点,实现大规模应用。Google 还提供 Colab 笔记本等资源,助力模型微调和集成。
谷歌鼓励开发者针对具体场景进行验证和微调,并提供相关指导和工具,支持适配过程。开发者可采用提示工程、上下文学习及 LoRA 等参数高效微调方法优化模型效果。
附上参考地址
声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。