🔥 今日头条:OpenAI 与美国战争部签署涉密部署协议,构建国家安全级 AI 防线
AI 军事化应用迎来转折点。OpenAI 宣布与美国战争部(Department of War)达成重磅协议,将在涉密网络环境中部署其先进模型,并配备专为国家安全设计的多层安全栈。与此同时,美军方对 AI 供应链的审查收紧,OpenAI 甚至出面为竞争对手 Anthropic 辩护,反对将其列为“供应链风险”,显示出行业在监管风暴下的复杂博弈。
🚀 行业速递 Top 10
- Anthropic 遭美国政府“封杀”:被列为供应链风险,特朗普下令停用
形势急转直下。五角大楼将 Anthropic 标记为“供应链风险”,特朗普政府随即下令联邦机构立即停止使用其技术。Anthropic 回击称此举“法律上站不住脚”,这一事件标志着 AI 巨头正面临前所未有的地缘政治与合规压力。
- 阿里 Qwen3.5 炸场:122B/35B 模型本地运行,性能硬刚 Sonnet 4.5
开源界的新里程碑。阿里巴巴发布 Qwen3.5 系列,其中 35B 和 122B 版本表现惊人,宣称在本地算力下即可提供媲美 Claude 3.5 Sonnet 的体验。这对本地部署和隐私敏感型开发者来说是巨大的利好。
- Perplexity Computer 愿景曝光:从“回答问题”进化到“操作电脑”
搜索的尽头是 OS。CEO Aravind Srinivas 演示了“Perplexity Computer”概念,核心愿景是让 AI 能够直接操作其他计算机软件。这不仅仅是搜索,而是要让 AI 接管人类的工作流,实现真正的自动化。
- Anthropic 发布 Claude Agent SDK:赋予 AI 文件读写与 Bash 权限
Claude 的手伸得更长了。新发布的 Agent SDK 为 Claude 提供了内置的文件系统访问、Bash 命令行执行以及子代理编排能力,大大降低了开发者构建自主 AI 智能体的门槛。
- Paul Graham 暴论:AI 生成的代码是新时代的“目标代码”
硅谷教父 Paul Graham 反思称,他最初低估了自然语言编程的变革。他认为,未来源程序就是自然语言,而 AI 生成的代码将像汇编或二进制一样,成为人类无需阅读的底层“目标代码”。
- Google Antigravity 展示 Nano Banana 2:集成实时网页上下文
Google 的反击。Antigravity 团队演示了 Nano Banana 2 Agent,这款工具强力整合了 Gemini 模型与实时网页搜索能力,旨在解决 AI“幻觉”问题,提供精准的实时数据反馈。
- 普林斯顿研究警告:高风险任务中 AI Agent 仍不可靠
在 AI 进军军工的背景下,这项研究泼了盆冷水。论文指出,目前的 AI Agent 在处理严肃、高风险任务时缺乏必要的可靠性,盲目部署可能带来灾难性后果。
- 开发者避坑指南:AI 生成的 Agent.md 会降低任务成功率
不要偷懒。最新研究发现,完全由 AI 自动生成的 Agent 配置文件(Agent.md)虽然省事,但会显著增加推理成本并降低最终任务的成功率,人工微调依然不可或缺。
- Gary Marcus 再次开炮:整个 AI 泡沫就是一场骗局
著名 AI 怀疑论者 Gary Marcus 发表长文,再次抨击当前的 AI 繁荣是建立在过度炒作之上的“骗局”。在巨头融资和军方合作的狂热中,这种冷静(或刺耳)的声音值得一读。
- Vercel CEO 在线求助:下一个高可靠性基础设施该造啥?
前端基建狂魔继续通过社区驱动产品。继 Vercel Queues 之后,Guillermo Rauch 正向社区征集下一个核心功能的灵感。作为 AI 应用的首选托管平台,Vercel 的动向往往预示着开发范式的转移。