
Anthropic 宣布,旗下主力模型 Claude Sonnet 4 上下文窗口扩容至 1M Token。这项「长上下文」功能目前正处于公测阶段,你可以通过 Anthropic API 和 Amazon Bedrock 进行调用,并将于近期登陆 Google 的 Vertex AI 平台。
Claude Sonnet 4 支持 1M Token
1M Token 大致相当于 75 万个英文单词。这意味着,模型可以直接对海量数据进行推理和分析,不用再依赖 RAG(检索增强生成)等相对复杂的技术方案。
回顾一下,Anthropic 在今年 5 月发布新一代模型时,Sonnet 4 和 Opus 4 的上下文窗口都是 200K Token。这个容量对大多数应用场景来说已经够用,但在「长上下文赛道」上,竞争早已白热化:
- Google 早在 2024 年初就给 Gemini 模型配上了 1M Token 支持,并宣称很快会上 2M Token 版本。
- OpenAI 今年早些时候也推出了拥有 1M Token 的 GPT-4.1;不过到了 GPT-5,又缩回到了 400K Token。
上下文窗口,能带来什么?
Anthropic 在公告中强调,长上下文将解锁不少强力场景,例如:
- 一次性分析和评估更庞大的代码库——代码处理本来就是 Claude 系列的拿手绝活儿。
- 针对大量文档做深度整合与提炼,用来构建经过数百次工具调用,仍能保持记忆连贯的 AI 智能体。
当然,功能更强,意味着成本也会推高:
- 价格翻倍:每 1M 输入 Token 从 3 美元涨到了 6 美元。
- 每 1M 输出 Token 的价格也上调了 50%。
不过你可以用「提示词缓存」来显著降低成本和延迟,再加上批处理模式的话,费用还能再省大约 50%。
超大上下文真的有用吗?
业内一直在讨论,大语言模型在处理超大上下文时,效能到底如何。
- 最常见的评测方式是「大海捞针」:在海量上下文里,找出某个特定信息点。目前,大多数模型在这项测试中的表现都还不错。
- 但研究人员提醒,这类测试未必代表真实的使用场景。毕竟,随着对话变长、上下文变大,模型还要保持内容的连贯性,其实会更难。
所以,即便上下文窗口越来越大,「上下文工程」这门技能在短期内恐怕也还会是「刚需」。














最新评论
不奇怪,设计师用 Mac 很正常,微软内部也有大把员工在用 Mac。
之前邮件里收到 Microsoft 50 周年的壁纸,下载下来里面有个 __MACOSX 文件夹我也是没绷住🤓
笑死我了
电脑设置完成,但电视端找不到服务器,怎么办?