X Following Digest - 2026年4月29日
生成时间:2026-04-29 07:14 UTC+8 | 筛选范围:最近 24 小时 | 精选推文数:25
🏆 重点推荐
1. BYD仰望U9打破布加迪速度纪录 - @aakashgupta
原文摘要:
Bugatti just lost its all-time speed record. To the Chinese EV in this video. 308 mph at Papenburg, on a battery.
The Chiron Super Sport had held the record for six years. 1,600 hp, 8.0L W16, four turbochargers. Bugatti needed every horse of that to hit 304 mph. BYD’s Yangwang U9 Xtreme did 308 with four electric motors and a battery pack.
BYD built the world’s first 1,200-volt production car. Everyone else uses 800V. The Blade Battery runs lithium iron phosphate cells with a 30C discharge rate, ten times what a conventional EV battery handles. Heat generation falls 67% versus 800V at matching output.
The crown for fastest production car on Earth has belonged to Bugatti, Koenigsegg, Hennessey, SSC. All combustion, all European or American. The crown is Chinese now, and it runs on a battery.
核心观点:
BYD仰望U9以308mph打破布加迪Chiron的304mph纪录,标志着电动汽车在性能领域全面超越内燃机。关键突破:全球首款1200V量产车、刀片电池30C放电倍率、四电机总计2978马力。
可实践建议:
- 关注电动汽车高压平台技术(1200V)的发展
- 比亚迪的垂直整合策略(电池+电机+整车)值得研究
社交媒体文案:
- 🟠 即刻:布加迪的速度纪录被比亚迪打破了!308mph,电动汽车干的。20年的内燃机工程极限,BYD用18个月超越。
- 🔴 小红书:比亚迪仰望U9破纪录了!🚗 308mph超越布加迪,世界最快量产车是电动车了~
- 🔵 推特:Bugatti lost its speed record to BYD’s Yangwang U9 at 308 mph. The crown is Chinese now, and it runs on a battery. 1,200V architecture, 30C discharge rate, 2,978 hp.
原文链接: https://x.com/aakashgupta/status/2049143673879994478
2. 世界模型88页综述论文 - @dotey
原文摘要:
港科大、新加坡国立、牛津等十余所高校联合发了一篇 88 页的综述,试图解决一个越来越尴尬的问题:“世界模型"这四个字在不同圈子里意思完全不同。
做强化学习的说的是 Dreamer 那种在脑子里想象未来再决策的系统,做视频生成说的是 Sora 那种画面生成器,做 Web Agent 的说的是 LLM 对网页状态的预测能力。大家各说各的,论文之间根本没法比。这篇论文提出了一个"能力等级 x 领域法则"的二维框架。
能力分三层:L1 预测器只管预测下一步,L2 模拟器能做多步推演且推演结果要遵守所在领域的基本规则,L3 进化器能在预测出错时主动诊断原因、设计实验获取新数据、修正自身模型。
综述 400 多篇工作后有几个跨领域的共性发现:视频生成模型视觉逼真度远超物理忠实度,最好的模型在物理一致性测试上通过率只有 26.2%;目前 L3 做得最成熟的是自动化科学实验。
论文末尾有个观察:从牛顿定律到麦克斯韦方程,人类历史上最成功的世界模型全是符号化的、可直接修改和组合的。世界模型的终局,是越来越大的神经网络,还是终究要回到可编辑的符号规则?
核心观点:
这篇综述为世界模型领域建立了统一的"能力等级x领域法则"框架。关键发现:视频生成模型物理一致性仅26.2%,L3级能力在科学实验领域最成熟。论文最后提出了一个根本性问题:世界模型的终局是更大的神经网络,还是可编辑的符号规则?
可实践建议:
- 在评估世界模型时,明确其能力等级(L1/L2/L3)和应用领域
- 对于需要物理一致性的应用,不能仅依赖视频生成模型的视觉逼真度
- 关注符号化表示与神经网络的结合方向
社交媒体文案:
- 🟠 即刻:世界模型综述论文发布了!88页,把AI圈各派观点整合到一个框架里。最震撼:Sora物理一致性只有26.2%。世界模型终局是神经网络还是符号规则?
- 🔴 小红书:📚 世界模型领域"教科书"发布!港科大等高校88页综述,把AI预测能力分成L1-L3三个等级~
- 🔵 推特:88-page survey on World Models from HKUST, NUS, Oxford & more. Key finding: video generation models achieve high visual fidelity but only 26.2% physical consistency. The framework categorizes capabilities into L1-L3.
原文链接: https://x.com/dotey/status/2049187740084731991
3. Warp终端宣布开源 - @dotey
原文摘要:
AI 终端工具 Warp 宣布客户端代码正式开源,采用 AGPL 协议,代码托管在 GitHub。OpenAI 是这个开源仓库的创始赞助商。
Warp 是一个用 Rust 写的现代终端,目前有超过 70 万开发者在用。它最大的卖点是把 AI 能力直接塞进了终端,你可以用自然语言描述想做的事,它帮你生成命令。同时支持 Claude Code、Codex、Gemini CLI 等主流 AI 编程工具。
这次开源有个很特别的地方:社区贡献的流程本身就是"AI 优先"的。Warp 自家的云端 AI 平台 Oz 负责干活,包括写代码、做规划、跑测试,社区成员主要负责提想法、定方向、做验证。简单说,人管方向,AI 干活,这是他们设想的未来软件开发模式。
核心观点:
Warp开源标志着"AI优先"开发模式的实践——人类负责方向和验证,AI负责代码实现和测试。OpenAI作为创始赞助商参与,显示其对开发者工具生态的重视。70万开发者用户基础为开源社区提供了良好起点。
可实践建议:
- 尝试Warp的AI命令生成功能,提高终端操作效率
- 关注其多模型支持(Kimi、MiniMax、Qwen),体验不同AI模型的命令生成能力
- 参与开源社区,体验"AI优先"的协作模式
社交媒体文案:
- 🟠 即刻:Warp开源了!70万开发者用的AI终端,现在代码完全开放。最有趣的是他们的"AI优先"贡献模式——人定方向,AI写代码。
- 🔴 小红书:Warp终端开源啦!用Rust写的,70万开发者都在用✨ 现在可以用自然语言让AI帮你生成终端命令了~
- 🔵 推特:Warp terminal goes open source! 700K+ devs using this Rust-based AI-powered terminal. The “AI-first” contribution model is fascinating: humans set direction, AI writes code.
原文链接: https://x.com/dotey/status/2049179379737960669
4. Anthropic的WhatsApp策略 - @aakashgupta
原文摘要:
Anthropic loses money on every Claude Design session. That’s the entire point.
The newsletter explaining the tool includes one line: “a complete prototype or 10-slide deck costs roughly $2 to $7.” A Claude Pro seat is $20 a month. A user hitting Claude Design three times a week is over $20 in compute by week two. Anthropic eats the rest.
This is the WhatsApp playbook.
Facebook paid $19B for WhatsApp in 2014. WhatsApp had $20M in revenue, 55 employees, and 450M monthly users. Facebook was buying the seats. Eleven years later 450M became 3 billion and every conversation runs through Meta’s infrastructure.
Anthropic is running the same trade. The Claude Pro seat is a long-duration option. A power user opens Claude in the morning, ships a landing page in 15 minutes, makes a deck after lunch, builds a clickable mockup before EOD. Compute cost that day is $20+. Anthropic eats it. The seat is locked in for another month.
The lock-in compounds. A user who replaces Figma, Canva, Adobe Express, and a freelance designer with one $20 subscription has switching cost approaching infinity. Every additional product Anthropic ships into the seat raises switching cost without raising the price.
OpenAI charges $5 per million input tokens and grows on usage. Anthropic charges $20 a month and grows on engagement. They are running opposite playbooks.
核心观点:
Anthropic正在采用WhatsApp策略:通过补贴计算成本获取用户seats,建立高切换成本锁定用户。与OpenAI按量付费不同,Anthropic采用固定订阅模式,通过增加产品功能提高用户粘性。
可实践建议:
- 对于AI产品创业者,考虑"seats优先"模式的长期价值
- 评估用户切换成本,思考如何通过产品组合提高粘性
- 关注Anthropic与OpenAI不同商业策略的市场反馈
社交媒体文案:
- 🟠 即刻:Anthropic每做一次Claude Design都在亏钱——但这正是他们的策略。就像WhatsApp被Facebook收购时的逻辑一样:先买seats,再想办法变现。
- 🔴 小红书:原来Anthropic做Claude Design是在亏本换用户!💡 这和WhatsApp的逻辑一样——先占领用户,再考虑赚钱。
- 🔵 推特:Anthropic loses money on every Claude Design session—and that’s the point. They’re running the WhatsApp playbook: buy seats first, monetize later.
原文链接: https://x.com/aakashgupta/status/2049217350839468512
5. OpenAI与AWS合作 - @dotey
原文摘要:
OpenAI 宣布与 AWS 扩大合作,把自家模型(包括最新的 GPT-5.5)、Codex 编程工具和托管智能体(Managed Agents)全部搬上 Amazon Bedrock 平台,目前以限量预览形式上线。
这对企业客户意味着什么?以前想用 OpenAI 的模型,基本只能走 Azure。很多已经重仓 AWS 的公司要么迁移基础设施,要么放弃 OpenAI,两头都不划算。现在这个障碍没了。企业可以在自己熟悉的 AWS 环境里直接调用 OpenAI 的模型,安全策略、合规流程、账单体系全部复用,Codex 的使用费用甚至可以算进 AWS 的云消费承诺额度里。
Codex 这次上线 AWS 的方式也值得注意。企业只需要在 Codex 里把模型提供商配置成 Bedrock,CLI、桌面端、VS Code 插件都支持。OpenAI 公布的数据是 Codex 周活用户已超 400 万,而且用途早已不限于写代码,还延伸到了研究分析、文档处理、做 PPT 这些场景。
核心观点:
OpenAI正在打破Azure独占局面,通过与AWS合作扩大企业市场覆盖。Codex周活已超400万,用途从编程扩展到研究分析、文档处理等多元场景。这反映了AI工具正在从单一功能向综合生产力平台演进。
可实践建议:
- 对于使用AWS的企业,现在可以在不迁移基础设施的情况下试用OpenAI模型
- 关注Bedrock Managed Agents的进展
- 考虑将Codex集成到现有工作流中
社交媒体文案:
- 🟠 即刻:OpenAI终于不再只抱Azure大腿了!Codex周活400万+,现在AWS用户也能用上。企业AI部署的门槛又降低了一层。
- 🔴 小红书:OpenAI和AWS牵手成功!以后在AWS上也能用GPT-5.5和Codex啦~企业部署AI更方便了✨
- 🔵 推特:OpenAI expands beyond Azure, brings GPT-5.5 & Codex to AWS Bedrock. 4M+ weekly active users on Codex now.
原文链接: https://x.com/dotey/status/2049265362718351779
📊 汇总统计
- 总推文数: ~300
- 精选推文数: 25
- 转发推文数: 8
- 筛选率: ~8.3%
📅 明日预告
- 继续关注AI Agent工作流的发展
- 关注Claude Code和OpenAI Codex的竞争态势
- 关注电动车和能源基础设施的最新进展
本摘要由AI自动生成,仅供参考