北京时间4月17日凌晨,Anthropic突然官宣推出Claude Opus 4.7版本,毫无预兆的突袭发布瞬间引爆AI圈。不同于以往的高调宣传,官方坦诚直言,这并非其旗下最强模型——传说中实力强悍的Claude Mythos仍处于小范围测试阶段,暂不公开面世。但就是这款“非最强”的迭代产品,凭借全面的能力升级、不变的定价,直接搅动AI旗舰模型竞争格局,让谷歌Gemini、OpenAI GPT等竞品倍感压力,网友调侃:“奥特曼(Gemini)又得失眠了”。
此次Claude Opus 4.7的核心升级,聚焦“靠谱”与“实用”,精准解决了上一代模型的痛点,也拉开了与同类竞品的差距。最引人瞩目的是高级软件工程能力的史诗级提升,在权威编程基准SWE-bench Pro上,其得分从Opus 4.6的53.4%飙升至64.3%,不仅大幅超越前代,更直接碾压GPT-5.4和Gemini 3.1 Pro,能够独立完成复杂系统开发、Rust项目构建等硬核任务,甚至能在输出结果前自行设计验证方法,让程序员无需密切监督就能放心交付任务。
视觉能力的升级同样亮眼,成为本次更新的一大亮点。Claude Opus 4.7支持识别长边2576像素的图像,分辨率是前代模型的3倍以上,彻底解决了以往AI“看得见、看不清”的难题,无论是密密麻麻的屏幕截图、复杂的数据图表,还是带小字的PDF文档,都能精准捕捉每一个细节。在ScreenSpot-Pro视觉导航评测中,其高分辨率下得分达87.6%,显著领先前代,让屏幕Agent真正具备了实用价值。
除了核心能力的突破,Claude Opus 4.7还带来了多项实用功能升级。新增xhigh推理等级,在深度与速度之间找到平衡,Claude Code已将默认推理等级调整为该档位;推出/ultrareview斜杠命令,可开启独立审查会话,精准挑出代码中的bug和设计问题,Pro和Max用户可免费试用3次;Auto模式扩展至Max用户,让模型能自主决策,减少长任务中的人工中断,同时API端新增任务预算公测功能,方便开发者控制token消耗。
这款“非最强”模型,之所以能让竞品倍感压力,核心在于它精准击中了用户的核心需求——靠谱。与前代模型的“敷衍执行”不同,Claude Opus 4.7会严格按字面执行指令,遇到缺失数据会直接报错,而非编造虚假信息,甚至能在技术讨论中反驳用户,帮助优化方案,活像一个专业的“资深同事”。这种“拒绝谄媚、主动纠错”的特质,在金融分析、法律文书、跨文档整合等专业场景中优势显著,GDPval-AA评测中,它更是拉开Gemini 3.1 Pro 439分的差距,胜率超过90%。
如今,AI旗舰模型的竞争已进入白热化阶段,Claude Opus 4.7的突袭发布,无疑给谷歌Gemini、OpenAI等厂商敲响了警钟。它用实力证明,无需追求“最强”的虚名,精准解决用户痛点、提升实用价值,才能在竞争中站稳脚跟。对于用户而言,这款不涨价却更强的模型,无疑是提升工作效率的神器;而对于整个AI行业,它的升级也将推动行业向“更靠谱、更实用”的方向发展,至于竞品们如何接招,或许真的要“失眠”思考了。