系统极客一直在努力
专注操作系统及软件使用技能

Claude Sonnet 4 上下文窗口扩容至 1M Token

Anthropic 宣布,旗下主力模型 Claude Sonnet 4 上下文窗口扩容至 1M Token。这项「长上下文」功能目前正处于公测阶段,你可以通过 Anthropic API 和 Amazon Bedrock 进行调用,并将于近期登陆 Google 的 Vertex AI 平台。

Claude Sonnet 4 支持 1M Token

1M Token 大致相当于 75 万个英文单词。这意味着,模型可以直接对海量数据进行推理和分析,不用再依赖 RAG(检索增强生成)等相对复杂的技术方案。

回顾一下,Anthropic 在今年 5 月发布新一代模型时,Sonnet 4 和 Opus 4 的上下文窗口都是 200K Token。这个容量对大多数应用场景来说已经够用,但在「长上下文赛道」上,竞争早已白热化:

  • Google 早在 2024 年初就给 Gemini 模型配上了 1M Token 支持,并宣称很快会上 2M Token 版本。
  • OpenAI 今年早些时候也推出了拥有 1M Token 的 GPT-4.1;不过到了 GPT-5,又缩回到了 400K Token。

上下文窗口,能带来什么?

Anthropic 在公告中强调,长上下文将解锁不少强力场景,例如:

  • 一次性分析和评估更庞大的代码库——代码处理本来就是 Claude 系列的拿手绝活儿。
  • 针对大量文档做深度整合与提炼,用来构建经过数百次工具调用,仍能保持记忆连贯的 AI 智能体。

当然,功能更强,意味着成本也会推高:

  • 价格翻倍:每 1M 输入 Token 从 3 美元涨到了 6 美元。
  • 每 1M 输出 Token 的价格也上调了 50%。

不过你可以用「提示词缓存」来显著降低成本和延迟,再加上批处理模式的话,费用还能再省大约 50%。

超大上下文真的有用吗?

业内一直在讨论,大语言模型在处理超大上下文时,效能到底如何。

  • 最常见的评测方式是「大海捞针」:在海量上下文里,找出某个特定信息点。目前,大多数模型在这项测试中的表现都还不错。
  • 但研究人员提醒,这类测试未必代表真实的使用场景。毕竟,随着对话变长、上下文变大,模型还要保持内容的连贯性,其实会更难。

所以,即便上下文窗口越来越大,「上下文工程」这门技能在短期内恐怕也还会是「刚需」。

赞(0)
分享到

评论 抢沙发