Anthropic Claude Sonnet 4 上下文 token 数提升至 100 万 ,可同时处理数十篇长篇研究论文

2025-08-13 发布 · 浏览24次 · 点赞0次 · 收藏0次
感谢网友 GreatMOLA 的线索投递!

8 月 13 日消息,在 OpenAI 推出开放模型和 GPT-5 之后,Anthropic 也接连发布了一系列人工智能相关消息。该公司今日宣布,其 Claude Sonnet 4 模型在 Anthropic API 中支持的上下文 token 数量已提升至 100 万,这一数字是之前上限的五倍。

据了解,此次升级后的“长上下文”功能,使得开发者能够将更大规模的数据集一次性输入到 Claude 中。Anthropic 表示,100 万 token 的窗口能够处理包含超过 7.5 万行代码的完整代码库,或者同时处理数十篇长篇研究论文。

该功能的应用场景包括:对大规模代码库进行分析,涵盖每个文件、测试和文档;整合海量文档集合,如合同或技术规格;以及构建能够在数百次工具调用和多步骤工作流保持连贯性的上下文感知 AI 智能体。

目前,这项升级功能已以公开测试版的形式向拥有 Tier 4 或自定义速率限制的 Anthropic API 客户开放,并可通过亚马逊 Bedrock 使用。此外,对谷歌云 Vertex AI 的支持也即将推出。对于超过 20 万 token 的提示词,定价将翻倍,但 Anthropic 指出,通过提示词缓存和批量处理,成本最多可降低 50%。

Anthropic 还特别强调了两位已经使用该功能的客户:Bolt.new 和 iGent AI。Bolt.new 将 Claude 集成到其基于浏览器的开发平台中,而 iGent AI 的 Maestro 智能体能够将对话转化为代码。两者均表示,100 万 token 的窗口使得编码工作流更加庞大、准确和自主。

就在昨天,Anthropic 还宣布 Claude 将获得记忆功能,用户可以引用其他聊天历史,甚至可以通过粘贴确切的上下文来进行参考。一周前,Anthropic 发布了 Claude Opus 4.1 版本,虽是小幅改进,但实用性颇高。

Anthropic Claude Sonnet 4 上下文 token 数提升至 100 万 ,可同时处理数十篇长篇研究论文 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。