苹果联合打造 RubiCap 框架:让 AI 描述图像每个细节,性能击败 10 倍体量对手

浏览1次 点赞0次 收藏0次

3 月 26 日消息,科技媒体 9to5Mac 昨日(3 月 25 日)发布博文,报道称苹果公司携手威斯康星大学麦迪逊分校,联合发布名为 RubiCap 的全新 AI 训练框架,主要用于优化“密集图像描述”模型的训练流程。

注:密集图像描述(Dense Image Captioning)是一种先进的计算机视觉技术。与只给出一句整体描述不同,该技术能识别图片中的各个局部区域(如“桌子上的红苹果”、“远处的行人”),并为每个细节生成精准的文字说明。

这项技术在训练视觉语言模型、文本生成图像以及改善无障碍工具等领域具有核心价值。研究人员指出,传统的训练方法面临着人工标注成本过高的问题;而利用现有大模型生成合成数据的替代方案,则容易导致模型输出缺乏多样性且泛化能力较弱。

苹果研究团队为了攻克上述难题,创新设计全新强化学习机制。系统首先从数据集中抽取 5 万张图像,并调用 GPT-5、Gemini 2.5 Pro 等前沿大模型生成候选描述。

随后,系统利用 Gemini 2.5 Pro 分析候选内容,提炼共识与遗漏点,进而将其转化为清晰的评分标准。最后,由 Qwen2.5 模型担任“裁判”,根据这些标准对描述进行打分。这种机制为模型提供了结构化的精准反馈,让其明确知道该如何修正错误。

苹果基于这一框架,最终训练出了参数量分别为 20 亿、30 亿和 70 亿的三个 RubiCap 模型。测试数据显示,这些紧凑型模型展现出了惊人的效率,其中 70 亿参数模型在盲测中获得了最高的排名,并实现了最低的“幻觉”错误率,全面超越了参数量高达 720 亿的前沿大模型。

更值得一提的是,30 亿参数的微型模型在部分测试中甚至反超了 70 亿参数版本,进而充分证明,高质量的图像描述模型可以摆脱对庞大参数量的绝对依赖。

附上参考地址

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论
游客
游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。