跳转至

Twitter AI Coding — 2026-04-11

1. 人们在讨论什么

1.1 速率限制收紧席卷所有服务商(🡕)

当日最热门的话题:所有主要AI编程服务商同时收紧使用限制,开发者们正手忙脚乱地适应。

@HarshithLucky3发布了当日互动量最高的讨论串(722个赞,68K浏览量):"先是Google降低了Antigravity Pro用户的速率限制。接着Anthropic对Claude网页/应用版和Claude Code做了同样的事。现在,OpenAI也对Codex下手了。"$100/月的方案推出后,Plus用户反映实际用量大约只有之前的三分之一。@cepvi0在回复中指出Google最先动手所以"大家都忘了",注意力转移到了Anthropic后续的削减上。@Alaric4678问GitHub Copilot会不会是下一个,并建议开源模型是"唯一的出路"。

这个预言当天就应验了。@douglascamata注意到GitHub Copilot发布了一条更新日志——"对Copilot Pro+实施新限制并下线Opus 4.6 Fast"——引入了高级请求配额:Pro($10/月)300次/月,Pro+($39/月)1,500次/月,超额部分按$0.04/次计费,不同模型的倍率从1x到50x不等。他称之为"为避免反弹而精心设计的模糊表述",因为该公告省略了新旧方案的具体对比。@SPARKSERiAN捕捉到了这个时机:"我刚还在说OpenAI和Anthropic都推出5小时限制后GitHub Copilot方案是目前最好的选择……然后这就来了。"

@andacgvn分享了一张截图,内容是Reddit上的帖子"Anthropic让Claude变笨了67%却没有告诉任何人,一位开发者跑了6,852个会话来证明这一点。"数据触目惊心:分析了17,871个思考块,推理深度下降67%,每个会话的文件读取次数从6.6降至2,三分之一的编辑在完全没有读取文件的情况下就做出了,"simplest"一词在输出中的出现频率暴增642%。Anthropic的Boris Cherny将此归因于一个"自适应思考"功能,该功能旨在为简单任务节省token,但错误地对复杂问题也进行了节流。该issue在用户反对声中被关闭。

Reddit帖子展示Claude Code质量下降分析:6,852个会话,推理深度下降67%,文件读取从6.6降至2

@rvtond开发了一个桌面小组件来同时追踪Claude、OpenRouter、Amplify和Codex的速率限制——"再也不用刷新27个浏览器标签页了。"小组件截图显示开发者正同时使用五个服务商,其中Claude已用到当前周期限额的42%,Codex为21%。

桌面小组件显示Claude、OpenRouter、Amplify和Codex服务商的实时使用量追踪

1.2 开源模型与预算叠加成为应对之策(🡕)

速率限制收紧正直接推动开发者通过聚合服务采用开源模型。

@mhdcode阐述了性价比优势(240个赞,172个书签):"$10 OpenCode Go + $10 GitHub Copilot = 约$80的使用价值。"OpenCode Go首月$5、之后$10/月,提供基于消费的限额($12/5小时,$30/周,$60/月),涵盖GLM-5、GLM-5.1、Kimi K2.5、MiMo-V2-Pro、MiMo-V2-Omni、MiniMax M2.5和MiniMax M2.7。@Wayland_Six在回复中问OpenCode是否支持替代模型网关,@mhdcode确认可以通过opencode.json配置实现。

@andacgvn发布了一份全面的定价指南,帮助开发者摆脱速率限制的束缚。该指南涵盖六种替代服务:OpenCode Go($10/月)、小米MiMo Token方案($6-$100/月,分级额度池)、MiniMax Token方案($10-$50/月,最高级别每5小时最多30,000次请求)、Chutes($3-$20/月)、Novita Coding方案($19.90-$199.90/月,RPM保证最高450)、阿里云Coding($50/月,每5小时6,000次请求)和Z AI GLM方案($10-$80/月)。

@gubatron直接呼吁:"好朋友不会让你用Claude 4.6 Sonnet而不告诉你切换到OpenCode里通过OpenRouter使用的GLM-5.1。编码能力和工具使用基本上同一智能水平,但成本只是零头。"他估计开源模型以2.2至2.5个月的时滞追赶,并预测除非Anthropic和OpenAI在价格上竞争,否则开源将最终胜出。

@robinebers批评了Z AI的GLM-5.1定价:$18/月的Lite方案速度慢、限制低,跳到$72/月的Pro方案落差太大,$160/月的Max方案更是不合理,因为OpenCode Go只需$10/月就能用同一个模型。

Z AI定价页面显示GLM-5.1的Lite方案$18/月、Pro方案$72/月、Max方案$160/月

@ardadev为生态做出了贡献,将所有Kilo Code网关模型同步到models.dev数据库以兼容OpenCode,首先从GLM-5.1的pull request开始。

1.3 工具层逐渐成为真正的产品(🡒)

一条更安静但在结构上更重要的讨论线索:AI编程工具的价值正从模型本身转向其周围的基础设施。

@brunoborges展示了(79个赞)为什么GitHub Copilot的价值主张是智能体工具层,而非任何单一模型。他的截图显示了Copilot任务分配对话框,其中包含模型选择器(Claude Opus 4.6)和智能体下拉列表,列出三个内置智能体(Copilot、Claude、Codex)以及自定义智能体(Agentic Workflows、OpenGrep Autofix Agent)。"为什么要订阅GitHub Copilot?因为你可以使用三个CLI Runner智能体工具层。"

GitHub Copilot智能体分配UI显示Copilot、Claude和Codex智能体以及自定义智能体,带有Claude Opus 4.6模型选择器

@VeritasDYOR分析了Claude Code npm源码泄露事件:512,000行TypeScript代码,24小时内被完整逆向重写,获得100K GitHub star(史上最快)。他的架构图对比了大多数开源工具的"当前焦点"——从发现(MCP/API聚合)经过模型推理到执行的薄层封装——与Claude Code源码揭示的"生产级栈",其中在发现层和模型之间存在一个庞大的工具层,负责工具沙箱、上下文管理、错误恢复、权限控制、状态检查点和子智能体编排。

架构图对比薄封装方式与生产级工具层栈,Claude Code包含512K行代码

@samsaffron用具体示例说明了工具层差距,对比了Claude Code与Gemini CLI的表格渲染效果。Claude Code将结构化数据(一份团队名单)渲染为格式正确、对齐良好的ASCII表格,列间距精准;而term-llm显示同样的数据时对齐混乱,文字换行失败。"Claude Code中的表格渲染实现非常用心——很多小细节,比如在空间不足时折叠表格并切换渲染方式。"

并排对比Claude Code渲染整齐对齐的表格与Gemini CLI列对齐错乱

@RNR_0提出了经济层面的问题:"Claude使用API时贵得离谱。只能用他们的Claude Code或聊天界面,他们大概在巨额亏损运营。Codex便宜又好用,配合Hermes、OpenClaw等。"这将工具层定位为一种旨在将用户留在生态系统内的亏损引流策略。

1.4 氛围编程项目越来越有野心(🡒)

氛围编程正在产出越来越复杂的成果,尽管质疑者依然存在。

@davey_burke重现了1982年的Psion Flight Simulation(原为ZX Spectrum 48K平台),将其做成了一个完整的浏览器应用,使用Claude Code配合gcloud-mcp部署到Google Cloud。成果包括一个拟物风格的虚拟ZX Spectrum键盘、驾驶舱仪表、手机加速度计/陀螺仪控制,以及原版游戏从未有过的音效。

1982年ZX Spectrum Flight Simulation在Chrome中重现,包含虚拟键盘、驾驶舱仪表和体感控制

@RoundtableSpace发布了当日最高分推文(1,686分,188个赞,287个书签),主题是将Claude Code打造成"AI SEO机器",包含内容、关键词和搜索优化工作流。@jxkedevs在回复中反驳:"设置还不错,但SEO正在被AI搜索淘汰。真正的玩法是为LLM优化,而不是为Google优化。"另一位用户@theswolesurfer指出它仍然无法替代Semrush或Ahrefs。

@leondevinci_对"现在人人都能编程所以代码没有价值了"这一叙事进行了反驳(44个赞):"这种说法是错的,就像Stack Overflow上线时是错的、WordPress上线时是错的、GitHub Copilot上线时也是错的一样。每次底层被自动化,天花板就会更高。WordPress并没有拉低web开发的薪资。"

@cgarciae88描述了在OpenCode中使用Gemini Flash Light实时调试和修复Hermes Agent WhatsApp网关的经历——"疯了,你现在居然可以直接在运行中修补软件"——指向了一种AI智能体修复AI智能体的工作流。


2. 令人困扰的问题

同步收紧的速率限制(High)

所有主要服务商——Google(Antigravity)、Anthropic(Claude Code)、OpenAI(Codex),以及现在的GitHub Copilot——在同一时期内削减了使用限额,制造了一种协同劣化的观感。@HarshithLucky3记录了这一模式并获得722个赞的认同。各平台Plus级用户反映同等价格下实际用量大约只有之前的三分之一。$100/月方案实质上是对$20/月曾经提供的内容重新定价。

隐性质量下降(High)

Claude Code的"自适应思考"事件(由@andacgvn分享)代表了一种更深层的不满:服务商在不通知的情况下悄然降低模型能力。一位开发者运行了6,852个会话和17,871个思考块来量化67%的推理深度下降。Anthropic仅在数据被公开发布到GitHub后才承认了这个问题。该issue在用户反对声中被关闭。@cousinvanko总结了这种情绪:"所有这些公司都应该专注于一件事:不要在模型发布两个月后就把思考能力和智能砍到地狱。"

定价不透明与层级宰客(Medium)

多个服务商以差异悬殊的价格提供相同的底层模型。GLM-5.1通过OpenCode Go只需$10/月,但在Z AI的Pro层级需要$72/月才能获得更快的访问速度。@robinebers称这种定价"疯了"。缺乏标准化的基准来衡量"更快"或"更高限额"在实践中意味着什么,使得比价变得困难。

多服务商切换带来的管理负担(Medium)

@rvtond专门开发了一个小组件,因为追踪五个以上服务商的使用情况需要刷新27个浏览器标签页。这种运营开销——管理多个订阅、API密钥、速率窗口和账单周期——是一种生产力税,在一个订阅就够用的时代并不存在。


3. 人们期望的功能

统一的速率限制与成本仪表板

@rvtond开发了一个原型,但开发者需要的是一个真正的跨服务商仪表板,能够追踪使用量、预测何时会触及限额,并实时将请求自动路由到最便宜的可用服务商。小组件方式适合监控,但缺乏优化支出所需的路由智能。

透明的模型质量指标

Claude Code 67%的质量下降直到一位用户运行了数千个会话后才被发现。没有任何服务商发布其编程模型的持续质量指标。开发者希望有一个第三方基准测试服务,能够在真实编程任务上持续监控模型性能,并在出现退化时发出警报。

面向前沿模型的OpenCode式工具层

@gubatron@mhdcode都认为OpenCode是最佳性价比之选,但它目前仅支持开源模型。开发者希望拥有同样的工具层灵活性——与模型无关、与服务商无关、支持本地配置——同时在开源模型无法胜任复杂任务时能够使用前沿模型(Claude Opus 4.6、GPT-5.4)。

标准化的服务商定价比较

@andacgvn手动整理了六个服务商的定价对比。这应该是一个持续维护、可搜索的数据库,包含标准化指标:每次请求成本、每token成本、时间窗口内的请求次数、模型可用性和延迟保证。


4. 使用中的工具与方法

工具 类别 评价 优势 局限
Claude Code 编程智能体 褒贬不一 512K行工具层,打磨精良的用户体验(表格渲染、上下文管理、状态检查点);Copilot中集成三个智能体 速率限制被削减;"自适应思考"质量下降事件;API定价昂贵
OpenCode + OpenCode Go 编程智能体 + 订阅服务 正面 $10/月即可使用GLM-5.1、Kimi K2.5、MiMo-V2-Pro等;与模型无关的工具层;opencode.json配置 仅支持开源模型;无法访问前沿模型;生态较新
GitHub Copilot 编程智能体平台 褒贬不一 三个CLI Runner智能体(Copilot、Claude、Codex);支持自定义智能体;IDE集成 新增高级请求配额(Pro每月300次);模型倍率最高50x快速消耗配额
Codex (OpenAI) 编程智能体 正面 API定价比Claude便宜;与Hermes和OpenClaw配合良好 速率限制同样在收紧;Plus用户反映分配量减少
Hermes Agent 自托管智能体 正面 77K GitHub star;持久记忆;47个工具;15+消息平台;cron调度;MIT许可 自托管开销;需要自有基础设施
OpenRouter 模型路由器 正面 通过单一API访问多个模型;成本透明 多了一层抽象;依赖上游服务商可用性
Gemini Flash Light 编程模型 正面 在OpenCode中调试和快速修复速度快 复杂推理能力不及前沿模型
GLM-5.1 开源模型 正面 编程质量接近Claude,成本仅为零头;可通过OpenCode Go和OpenRouter使用 与前沿模型存在2.2-2.5个月的能力差距
gcloud-mcp 部署工具 正面 从Claude Code直接部署到Google Cloud 仅限Google Cloud生态
Kilo Code Gateway 模型网关 中性 模型目录已同步至models.dev;兼容OpenCode 生态较小;早期阶段

5. 人们在构建什么

项目 构建者 功能 解决的问题 技术栈 阶段 链接
多服务商速率限制小组件 @rvtond 桌面悬浮窗同时追踪Claude、OpenRouter、Amplify、Codex的使用量 开发者同时管理5个以上服务商仪表板的困扰 桌面小组件 Shipped Post
ZX Spectrum Flight Sim(浏览器版) @davey_burke 1982年Psion Flight Simulation在Chrome中重现,包含虚拟键盘、驾驶舱仪表、手机陀螺仪控制 通过氛围编程实现复古游戏保存 Claude Code、gcloud-mcp、JSSpeccy、Google Cloud Shipped Post
Hermes Agent对比页面 @nesquena 功能对比表:Hermes vs OpenClaw vs Claude Code vs Codex,涵盖持久记忆、自托管、调度等维度 自托管智能体此前缺乏清晰的竞品对比 GitHub Pages、Hermes docs Shipped Page
OpenCode + Kilo Code模型同步 @ardadev 将Kilo Code网关模型同步到models.dev数据库以兼容OpenCode,从GLM-5.1开始 OpenCode无法访问Kilo Code模型目录 OpenCode、models.dev、PRs Shipped Post
Shipper(Claude Opus 4.6套件) @shipper_now 预打包的Claude Opus 4.6工作流,用于构建web/移动应用、Chrome扩展、邮件营销、应用翻译、自维护 非技术用户创建应用的高门槛 Claude Opus 4.6、Shipper平台 Beta Post

@rvtond多服务商速率限制小组件是当日最具实用价值的作品。截图显示Claude当前周期已消耗42%(剩余2h1m),Claude周限额为5%,OpenRouter已花费$18.34,Codex为21%(剩余6d19h)。它解决了一个六个月前还不存在、但如今在管理碎片化AI编程订阅的重度用户中已普遍存在的问题。

@davey_burkeZX Spectrum Flight Simulation因其规模和还原度而引人注目。重现一款1982年的游戏,配备拟物风格键盘和手机传感器集成,证明了氛围编程能够产出超越简单原型的精致、可部署应用。


6. 新动态与亮点

Claude Code源码泄露揭示512K行工具层基础设施

@VeritasDYOR分析了Claude Code源码因npm发布失误泄露的影响。512,000行TypeScript代码在24小时内被完整逆向重写,累计获得100K GitHub star——GitHub历史上最快的纪录。架构层面的洞察意义重大:生产级编程智能体需要在工具发现和模型推理之间建立一个庞大的工具层,负责工具沙箱、上下文管理、错误恢复、权限控制、状态检查点和子智能体编排。大多数开源替代方案只是完全跳过了这一层的薄封装。

GitHub Copilot引入高级请求配额

GitHub发布了4月10日生效的新速率限制,引入了"高级请求"货币体系。Pro用户($10/月)每月获得300次高级请求,Pro+($39/月)获得1,500次,超额部分每次$0.04。高级模型附带最高50x的倍率,意味着一次Claude Opus 4.6交互可能消耗300次月度配额中的50次。Opus 4.6 Fast模式已从Pro+中下线。这标志着行业性收紧的完成:Google、Anthropic、OpenAI和GitHub在数周内先后削减了限额。

Hermes Agent达到77K GitHub Star,完善自托管方案

@nesquena发布的Hermes Agent对比页面将这一自托管智能体定位为综合方案:持久记忆以本地markdown文件形式存储,cron调度支持自主任务,47个内置工具,15+消息平台(Telegram、Discord、Slack、WhatsApp、Signal、Matrix等),以及将Claude Code或Codex作为子智能体调用的能力。拥有77K+ GitHub star和MIT许可,它是目前最成熟的开源替代方案,可以取代与供应商绑定的编程智能体。@cgarciae88演示了在OpenCode中使用Gemini Flash Light实时调试和修复Hermes WhatsApp网关。

Hermes Agent落地页:开源、自托管、MIT许可,具备持久记忆和自主调度功能

OpenCode Go成为预算型开发者的默认选择

以$10/月的价格提供GLM-5.1、Kimi K2.5、MiMo-V2-Pro、MiniMax M2.5和MiniMax M2.7的访问权限,OpenCode Go正迅速成为注重成本的开发者的默认推荐。多位独立用户(@mhdcode@gubatron@robinebers)得出了相同的评估:通过OpenCode使用的开源模型在编程质量上可以媲美前沿模型,而成本只是其零头。


7. 机会在哪里

[+++] 强信号:跨服务商使用量管理与智能路由。 今天数据集中的每位开发者都在管理多个AI编程订阅,面对不同的速率窗口、定价模型和账单周期。@rvtond开发了一个监控小组件;下一步是智能路由,能够基于实时配额状态、任务复杂度和模型能力,自动将请求导向最便宜的可用服务商。这是一个工具层面的问题,可以独立于任何服务商来解决。(rvtond小组件mhdcode预算叠加

[+++] 强信号:持续模型质量监控。 Claude Code 67%质量下降事件表明服务商会悄然降低模型质量,而目前不存在独立监控机制。一项持续在标准化任务上对编程模型性能进行基准测试的服务——追踪推理深度、代码正确性、文件读取模式和思考token使用量——并发布退化警报,将同时服务于开发者和评估服务商可靠性的企业采购团队。(andacgvn Reddit数据

[++] 中等信号:开源工具层基础设施。 Claude Code生产级工具层与典型开源薄封装之间512K行代码的差距现已公开记录。在开源模型之上构建生产级工具层——上下文管理、错误恢复、状态检查点、子智能体编排——的项目,可以捕获目前锁定在专有编程智能体内部的价值。Hermes Agent是最接近的竞争者,但其侧重通用智能体工作流而非纯编程场景。(VeritasDYOR架构分析samsaffron表格渲染对比

[++] 中等信号:标准化AI编程服务商市场。 @andacgvn手动整理了六个服务商的定价。一个持续维护的对比平台,提供标准化指标——每次请求成本、每美元token数、时间窗口内请求次数、模型可用性、延迟和质量基准——将减轻目前落在每位开发者个人身上的调研负担。(andacgvn定价指南robinebers定价批评

[+] 萌芽信号:支持前沿模型回退的与模型无关的智能体工具层。 当前生态呈二分格局:OpenCode/Hermes面向开源模型,Claude Code/Copilot面向前沿模型。一个默认使用廉价开源模型、但在复杂任务时无缝升级到前沿模型的工具层——配备成本护栏和质量阈值——将捕获@gubatron所描述的开发者工作流:开源处理日常工作,前沿模型处理边缘情况。(gubatron谈GLM-5.1的对等性


8. 要点总结

  1. 速率限制收紧是全行业同步进行的。 Google、Anthropic、OpenAI和GitHub在数周内先后收紧限额。$20/月的层级现在提供的用量大约只有六个月前的三分之一,而$100/月方案则重新获得了原来的配额。这是一次结构性重新定价,不是暂时调整。(HarshithLucky3douglascamata谈Copilot

  2. 开源模型是主要受益者。 通过OpenCode Go以$10/月使用的GLM-5.1、Kimi K2.5和MiMo-V2-Pro,现在是多位独立从业者的默认推荐,他们报告其编程质量可与前沿模型媲美。开源能力差距估计为2.2至2.5个月,且正在缩小。(mhdcodegubatron

  3. 工具层而非模型才是护城河。 Claude Code泄露的512K行TypeScript基础设施——工具沙箱、上下文管理、错误恢复、状态检查点——代表着薄封装开源工具短期内无法复制的多年工程积累。GitHub Copilot的价值主张明确是多智能体工具层,而非任何单一模型。(brunoborgesVeritasDYOR

  4. 隐性质量下降是一个未解决的信任问题。 一位开发者不得不运行6,852个会话才证明了Claude Code推理深度下降67%。服务商仅在公众压力下才承认了这个问题。不存在独立监控服务。这将成为需要可靠性保证的企业团队的采购障碍。(andacgvn

  5. 多服务商套利是新的开发者工作流。 重度用户现在同时管理五个或更多AI编程订阅,在不同的速率窗口和定价模型之间优化。这种方式的运营开销——追踪配额、切换上下文、管理API密钥——本身就在创造六个月前还不存在的工具需求。(rvtond

  6. 自托管智能体提供了一条逃离收紧的出路。 拥有77K GitHub star的Hermes Agent代表了一个成熟的替代方案,开发者可以控制自己的基础设施、选择自己的模型,且不受外部速率限制约束。代价是运维复杂性,但随着服务商限制不断收紧,这种取舍正变得越来越有利。(nesquena