完爆ChatGPT!谷歌这招太狠:连你的「阴阳怪气」都能神还原

2025-12-14 发布 · 浏览22次 · 点赞0次 · 收藏0次

【导读】谷歌发布Gemini 2.5 Flash原生音频模型,不仅能保留语调进行实时语音翻译,更让AI在复杂指令和连续对话中像真人一样自然流畅。这一更新标志着AI从简单的「文本转语音」跨越到了真正的「拟人化交互」时代。

想象这样一个场景:

你戴着耳机走在印度孟买喧闹的街头,周围是嘈杂的叫卖声和完全听不懂的印地语。

此时,一位当地大叔急匆匆地用印地语向你询问路线,他的语速很快,语气焦急。

若是以前,你可能得手忙脚乱地掏出手机,打开翻译App,按下按钮,尴尬地把手机递到他嘴边,然后听着手机里传出毫无感情的「机翻」电子音。


Nano Banana Pro制图

但现在,一切都变了。

你站在原地不动,耳机里直接传来了流利的中文:「嘿!朋友,麻烦问一下,火车站是不是往这边走?

最绝的是,这句中文不仅意思准确,甚至连大叔那种焦急、气喘吁吁的语调都完美复刻了!

你用中文回答,耳机自动把你的声音转化成印地语传给对方,甚至保留了你热情的语调。

这不仅是科幻电影里的《巴别塔》重现,这是谷歌本周刚刚扔下的重磅「核弹」——Gemini 2.5 Flash Native Audio(原生音频模型)


今天,我们就来扒一扒这次更新到底有多强。

所谓的「原生音频」,到底强在哪?

很多人可能会问:「现在的手机不都有朗读功能吗?这有啥稀奇的?」

这里有个巨大的误区。

以前的AI语音交互,流程是这样的:听到声音 -> 转成文字 -> AI思考文字 -> 生成文字回复 ->转化成语音读出来。

这个过程不仅慢,而且在「转来转去」的过程中,语气、停顿、情感这些人类沟通中最微妙的东西,全都丢了。


而谷歌这次发布的Gemini 2.5 Flash Native Audio,核心就在「Native(原生)」这两个字。

它不需要把声音转成文字再转回来,它是直接听、直接想、直接说

举个栗子,这就好比你和一个老外聊天,以前你需要脑子里疯狂查字典,现在你已经形成了「语感」,脱口而出。

这次更新,谷歌不仅升级了Gemini 2.5 Pro和Flash的文本转语音模型,带来了更强的控制力。

更重要的是,它让实时语音代理(Live Voice Agents)成真了。


这意味着什么?

意味着在Google AI Studio、Vertex AI,甚至是搜索(Search Live)里,你不再是和一个冷冰冰的机器对话,而是在和一个有「脑子」、有「耳朵」的智能体进行实时头脑风暴

耳机里的「同声传译」

打破语言的巴别塔

这次更新中,最让普通用户感到兴奋的,绝对是实时语音翻译(Live Speech Translation)功能。

谷歌这次没有画饼,功能已经开始在美国、墨西哥和印度的安卓设备上,通过Google翻译App进行Beta测试了(iOS用户稍安勿躁,马上就来)。

这个功能有两个杀手锏,直击痛点:

持续监听与双向对话:真正的「无感」翻译

以前用翻译软件,最烦的就是要不停地点「说话」按钮。

现在,Gemini支持持续监听

你可以把手机揣兜里,戴上耳机,Gemini会自动把你周围听到的多种语言,实时翻译成你的母语。

这就相当于随身带了个隐形翻译官。

而在双向对话模式下,它更聪明。

比如你会说英语,想和一个说印地语的人聊天。

Gemini能自动识别是谁在说话。

你在耳机里听到的是英语,而当你开口说完话,手机会自动外放印地语给对方听。

你不需要去设置「现在我说」、「现在他说」,系统全自动切换。

风格迁移:连「情绪」都能翻译

这是最让我起鸡皮疙瘩的功能——Style Transfer(风格迁移)

传统的翻译是「莫得感情」的朗读机器。

但Gemini利用其原生音频能力,能捕捉人类语言的细微差别。


如果对方说话时语调上扬、节奏轻快,翻译出来的声音也会是欢快的;

如果对方语气低沉、犹豫,翻译出来的声音也会带着迟疑。

保留了说话者的语调、节奏和音高

这不仅仅是听懂意思,这是听懂态度


在商务谈判或者吵架的时候,这个功能简直太重要了!

此外,它还支持:


  • 70多种语言和2000多个语言对:覆盖了全球绝大多数人的母语。

  • 多语言混输:即使在一场对话中混杂着几种不同的语言,它也能同时理解,不用你手动切来切去。

  • 噪声鲁棒性:专门针对嘈杂环境优化,过滤背景音。哪怕你在嘈杂的户外市场,也能听得清清楚楚。

开发者狂喜

这个AI终于「听懂人话」了

如果你是开发者,或者想为企业构建客服AI,这次Gemini 2.5 Flash Native Audio带来的三个底层能力提升,绝对是「及时雨」。


函数调用更精准

以前的语音助手,一旦涉及到查天气、查航班这种需要调用外部数据的操作,很容易卡壳或者回答得很生硬。

现在的Gemini 2.5,知道何时该去获取实时信息,并且能把查到的数据无缝地编织进语音回复里,不会打断对话的流畅感。

在专门测试复杂多步骤函数调用的ComplexFuncBench Audio评测中,Gemini 2.5拿下了71.5%的高分,遥遥领先。


更新后的 Gemini 2.5 Flash Native Audio 在 ComplexFuncBench 上与之前版本及行业竞争对手的性能对比

这意味着,它能真正充当一个靠谱的「办事员」,而不是一个只会陪聊的「傻白甜」。

指令遵循更听话

你是不是经常觉得AI听不懂复杂的指令?

谷歌这次下了狠功夫。

新模型对开发者指令的遵循率从84%提升到了90%

这意味着,如果你要求AI「用这种特定的格式回答,语气要严厉一点,不要废话」,它能更精准地执行你的要求。

对于构建企业级服务来说,这种可靠性才是核心竞争力。

对话更丝滑

多轮对话是AI的老大难问题。

聊着聊着,AI就忘了前面说过啥。

Gemini 2.5在检索上下文方面取得了显著进步。

它能更有效地记住之前的对话内容,让整个交流过程不仅连贯,而且具有逻辑性。

配合上原生音频的低延迟,你会感觉对面真的像坐了一个人。

我们离「贾维斯」还有多远?

谷歌这次的更新,其实是在传递一个明确的信号:

语音交互正在成为下一个时代的入口。


从Gemini Live到Search Live,再到耳机里的实时翻译,谷歌正在把AI从屏幕里解放出来,塞进我们的耳朵里。

对于普通用户:语言的障碍正在被技术铲平。

明年(2026年),这一功能将通过Gemini API扩展到更多产品中。

未来,也许我们真的不再需要花费数年时间痛苦地背单词,一个耳机就能让我们走遍天下。

对于企业:构建一个能听、能说、能办事、有情绪的下一代AI客服,门槛正在大幅降低。

彩蛋

除了原生音频模型外,谷歌还丢出个核弹级实验产品——Disco

它是来自Google Labs的新发现工具,用于测试未来网络的想法。

它内置了基于谷歌最强模型Gemini 3打造的神器GenTabs

谷歌直言,目前还处于早期阶段,并非所有功能都能完美运行。

最牛的地方在于,它能看懂你的需求。

GenTabs通过主动理解复杂任务(通过用户打开的标签页和聊天记录)并创建交互式网络应用程序来帮助完成任务,从而帮助浏览网络。

不用写一行代码,它直接把你乱七八糟的标签页和聊天记录,「变」成一个专属的交互式App


想做周餐计划?想教孩子认识行星?


跟它说人话就行,它自动给你生成工具,所有数据都有据可查,绝不瞎编。

目前macOS版已经开放排队了,虽然还是早期实验版,但这绝对是把「浏览」变成了「创造」。

赶紧冲,这波未来感拉满了!

One More Thing

技术进步的速度往往超乎我们的想象。

昨天我们还在嘲笑Siri听不懂人话,今天Gemini已经开始帮我们进行跨语言的情感交流了。

别光看着,Gemini 2.5 Flash Native Audio现在已经在Vertex AI上全面推出,Google AI Studio里也能试用了。

赶紧去体验一下吧!

或许在听到AI用你的语气说出第一句外语时,你会真切地感受到——未来已来。

参考资料:

https://deepmind.google/blog/

https://x.com/GoogleAI/status/1999560839679082507?s=20

https://blog.google/technology/google-labs/gentabs-gemini-3/

秒追ASI

⭐点赞、转发、在看一键三连⭐

点亮星标,锁定极速推送!

完爆ChatGPT!谷歌这招太狠:连你的「阴阳怪气」都能神还原 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。