科技媒體 testingcatalog 昨日(3 月 26 日)發(fā)布博文,報道稱 AI 公司 Anthropic 正計劃“擴容”Claude 3.7 Sonnet 模型,將其上下文窗口將從 20 萬 token 躍升至 50 萬 token。
50 萬 tokens 窗口可直接處理海量信息,避免檢索增強生成(RAG)可能導致的上下文錯亂問題,適用于政治文檔分析、超長代碼庫管理(如數(shù)十萬行代碼)、跨文檔摘要生成等復雜任務。不過該媒體也指出超大上下文可能帶來內存和算力成本壓力,模型實際利用率仍需驗證。
IT之家注:上下文窗口(Context Window)是模型在生成每個新 token 時實際參考的前面內容的范圍?梢詫⑵漕惐葹樵谀骋惶囟〞r間內你能集中注意力的范圍,就像你只能專注于手頭的有限任務。
Context Window 決定了在生成過程中,模型可以參考的上下文信息的量。這有助于模型生成連貫且相關的文本,而不會因為參考過多的上下文而導致混亂或不相關的輸出。
消息稱該功能或先面向企業(yè)客戶開放,如編程工具 Cursor 已在其 IDE 中提供 "Claude Sonnet 3.7 MAX" 選項。Anthropic 始終聚焦企業(yè)級解決方案,此次升級直指 Google Gemini 等競品的超長上下文優(yōu)勢。
此次升級恰逢 AI 驅動的“氛圍編程”(vibe coding)興起。開發(fā)者通過自然語言描述生成代碼,50 萬 token 窗口可支持更大型項目連續(xù)開發(fā),減少因 token 限制導致的中斷,進一步降低編程門檻。