
Anthropic 宣布,旗下主力模型 Claude Sonnet 4 上下文窗口扩容至 1M Token。这项「长上下文」功能目前正处于公测阶段,你可以通过 Anthropic API 和 Amazon Bedrock 进行调用,并将于近期登陆 Google 的 Vertex AI 平台。
Claude Sonnet 4 支持 1M Token
1M Token 大致相当于 75 万个英文单词。这意味着,模型可以直接对海量数据进行推理和分析,不用再依赖 RAG(检索增强生成)等相对复杂的技术方案。
回顾一下,Anthropic 在今年 5 月发布新一代模型时,Sonnet 4 和 Opus 4 的上下文窗口都是 200K Token。这个容量对大多数应用场景来说已经够用,但在「长上下文赛道」上,竞争早已白热化:
- Google 早在 2024 年初就给 Gemini 模型配上了 1M Token 支持,并宣称很快会上 2M Token 版本。
- OpenAI 今年早些时候也推出了拥有 1M Token 的 GPT-4.1;不过到了 GPT-5,又缩回到了 400K Token。
上下文窗口,能带来什么?
Anthropic 在公告中强调,长上下文将解锁不少强力场景,例如:
- 一次性分析和评估更庞大的代码库——代码处理本来就是 Claude 系列的拿手绝活儿。
- 针对大量文档做深度整合与提炼,用来构建经过数百次工具调用,仍能保持记忆连贯的 AI 智能体。
当然,功能更强,意味着成本也会推高:
- 价格翻倍:每 1M 输入 Token 从 3 美元涨到了 6 美元。
- 每 1M 输出 Token 的价格也上调了 50%。
不过你可以用「提示词缓存」来显著降低成本和延迟,再加上批处理模式的话,费用还能再省大约 50%。
超大上下文真的有用吗?
业内一直在讨论,大语言模型在处理超大上下文时,效能到底如何。
- 最常见的评测方式是「大海捞针」:在海量上下文里,找出某个特定信息点。目前,大多数模型在这项测试中的表现都还不错。
- 但研究人员提醒,这类测试未必代表真实的使用场景。毕竟,随着对话变长、上下文变大,模型还要保持内容的连贯性,其实会更难。
所以,即便上下文窗口越来越大,「上下文工程」这门技能在短期内恐怕也还会是「刚需」。
最新评论
应用安装失败,错误消息: 从 (Microsoft.NET.Native.Framework.2.2_2.2.29512.0_x64__8wekyb3d8bbwe.Appx) 使用程序包 Microsoft.NET.Native.Framework.2.2_2.2.29512.0_x64__8wekyb3d8bbwe 中的目标卷 C: 执行的部署 Add 操作失败,错误为 0x80040154。有关诊断应用部署问题的帮助,请参阅 http://go.microsoft.com/fwlink/?LinkId=235160。 (0x80040154) 大佬看看怎么解决
安装商店是一直卡在16%
终于关了,爽!!
Microsoft 帐户的远程桌面连接一直有些问题,建议新建一个「本地帐户」来用。