跳转至

Twitter AI - 2026-05-03

1. 人们在讨论什么

1.1 AI 资本开支周期与基础设施投资占据主导 🡕

AI 基础设施投资主题今天激增,多条高互动帖子把建设周期框定为一代人的机会。@jvisserlabs 宣称(271 点赞,13,443 浏览量,89 收藏):“你的资本开支是我的机会。旧商业周期正在被 AI 资本开支周期取代:半导体、电力、数据中心、化学品和能源。盈利在上升,但通胀/利率警告也在上升。基准滞后。AI 建设还早。”@MrMikeInvesting 映射了完整 AI 生态(71 点赞,3,331 浏览量,65 收藏),覆盖云基础设施、NeoCloud、安全、算力、电力/冷却、数据和内存,并在每一层列出具体股票代码。@TheTranscript_ 汇总了云积压承诺数据(19 点赞,5,082 浏览量,12 收藏):Google Cloud 积压承诺几乎翻倍至 462B 美元,Amazon 为 364B 美元(不含 100B+ 美元 Anthropic 交易),Microsoft RPO 为 627B 美元,同比增长 99%。

Alphabet、Amazon 和 Microsoft 云积压承诺对比,显示 AI 驱动承诺合计超过 1.4T 美元

讨论要点: @Mktrhythms 回复 @MrMikeInvesting:“全栈 AI 敞口是正确框架,但这些高度同向标的之间的集中风险是真实的。如果资本开支周期哪怕略微减速,NeoCloud 和电力标的会因估值过高而受到最大冲击。”@El_Guapooo_ 问 @jvisserlabs:“当第一个超大规模云厂商决定放弃并削减 AI 资本开支时会发生什么?”

与前日对比: 5 月 2 日报道了 AI 资本开支占美国 GDP 增长 45%,以及 Stripe 数据显示收入加速。今天信号进一步增强,来自三家超大规模云厂商的具体积压承诺数字(合计 1.4T+ 美元)和面向投资者的生态映射达到 13K+ 浏览量,说明讨论已经从“AI 是真的吗?”转向“我该如何在全栈布局?”


1.2 H20 禁令后 NVIDIA 中国市场崩塌 🡕

@StockSavvyShay 报道(208 点赞,24,594 浏览量,19 收藏):“Jensen Huang 表示,H20 禁令后,$NVDA 在中国 AI 芯片市场份额从 95% 跌至 0%,称美国出口政策‘基本适得其反’。现在美国试图倒回去,但中国已经学会了把 AI 未来建立在美国硬件上的风险。”另外,@kyleichan 指出(83 点赞,6,493 浏览量,17 收藏):“多家中国 AI 创业公司——Moonshot、DeepRoute AI、StepFun——正面临压力,需要解除海外公司架构并在中国注册,以准备在香港 IPO。”

讨论要点: @StockSavvyShay 在回复中补充:“我很难相信这条新闻是真的。也许直接进入中国的新芯片正在转向,但很难相信主要模型没有仍通过云或间接渠道在 $NVDA 和其他美国芯片上训练和服务。”@GberevaP:“一旦供应链中的信任被打破,就不容易回来。”

与前日对比: 5 月 2 日没有直接报道中国芯片禁令。这是由 Jensen Huang 公开评论推动的新信号,达到 24K 浏览量。同时来自 The Information 的中国创业公司重组故事增加了结构深度——显示地缘政治压力正在重塑硬件供应链和公司结构。


1.3 AI 意识辩论 -- Dawkins 谈 Claude 🡕

Richard Dawkins 发表了一篇质疑 Claude 是否具有意识的文章,引发大量互动。@SovereignIM 回应(343 点赞,20,990 浏览量,21 收藏):“无神论者 Richard Dawkins……认为 AI 大语言模型 Claude 具有意识。我从没想过自己会说出这样一句话。”@Evolutionistrue 直接报道了这篇文章(15 点赞,770 浏览量,8 收藏):“在 UnHerd,Richard Dawkins 思考 Claude 这类先进 AI 程序是否有意识。他某种程度上认为有,但也把‘意识’和‘智能’混在了一起。”

讨论要点: @musta_ankka 回复 @SovereignIM:“你没读他的文章,对吧?但你意见很强。”@testsignal000 问:“‘vaginal microbiome timeline’ 是在引用什么?”说明该帖的评论风格本身制造了困惑。

与前日对比: 5 月 2 日没有 AI 意识讨论。这是由 Dawkins 的 UnHerd 文章推动的新主题,并获得今天所有单条帖子中最高点赞数(343 点赞)。一位著名无神论知识分子认真讨论机器意识,创造了不同寻常的跨圈层兴趣。


1.4 AI 模型效率 -- 跑完任务所需 token 胜过每秒 token 数 🡕

@cyrilXBT 给出直接对比(64 点赞,4,258 浏览量,5 收藏):“有人刚用 Gemma 4 和 Qwen 3 跑了完全相同的编程任务。Gemma 4 31B:27 tokens/sec,3:51 跑完,用了 6,209 tokens。Qwen 3 27B:32 tokens/sec,18:04 跑完,用了 33,946 tokens。Qwen 每 token 更快。Gemma 早 14 分钟跑完。”结论是:“Tokens per second 不是重要指标。Tokens to completion 才是重要指标。”

@teslaownersSV 扩展了效率论点(42 点赞,3,274 浏览量):“真正重要的指标是每美元智能。Grok 4.3 现在正在这个轴上领先。算力是每个实验室的瓶颈。”

讨论要点: @BuildWitKendriq 用经验验证:“我上周自己测试过。把一个数据管线任务换成‘更慢’的模型,反而提前 11 分钟跑完,只因为它不再过度解释自己。Tokens per second 是速度表。Tokens to completion 是油表。”

与前日对比: 5 月 2 日广泛报道了基准怀疑。今天缩小到一个具体、可量化的洞察——效率应按任务跑完时间衡量,而不是原始吞吐。这个重构对智能体循环有直接成本含义,因为 API 成本会在数千次迭代中复合。


1.5 AI 正在加速(还是没有?)-- 对立叙事 🡒

@ben_j_todd 发布了一篇综述(80 点赞,8,644 浏览量,47 收藏):“AI 已经在加速了吗?证据综述。Claude 4.6 和 Mythos 基于 2024 年后 37 个基准的指数,其实仍在趋势线上。”他在回复中补充:“但 Mythos 代表 6 个月进展,在 Anthropic 内部 ECI 上只有 2 分,后者可能更偏重智能体式编程。”

反方来自 @MrEwanMorrison,他主张(61 点赞,1,150 浏览量):“三年的证据已经摆在这了。大语言模型 AI 是骗局。它们产生 +30% 错误。幻觉是内置的。它们卡在发展平台期。我们被兜售的‘指数级进步’曲线是谎言。”他还引用了一篇论文(78 点赞,2,703 浏览量)谈 AI 让人类思想标准化:“如果我们使用大语言模型 AI,我们都会以同样方式思考和说话。它扩散到所有文化也是如此。”

AI 基准进展图,显示 Claude 4.6 和 Mythos 位于 2024 年后 37 个基准的趋势线上

讨论要点: 两种对立叙事代表了越来越明显的分裂:一边是数据驱动的 AI 进展追踪,另一边是对 LLM 可靠性的文化/哲学批评。

与前日对比: 5 月 2 日出现了实践者对基准的反弹。今天一边升级为量化加速分析(37 个基准),另一边升级为强硬的“这是骗局”宣言。思想标准化论文增加了新维度:即使 AI 有用,它也可能同质化认知。


1.6 医疗 AI 证据继续累积 🡒

@NewsfromScience 发布(54 点赞,11,596 浏览量,12 收藏):“研究人员显示,一种名为大语言模型的 AI 在诊断复杂且可能危及生命的病症时,经常超过医生。在早期急诊案例中,该模型在约 67% 的病例中识别出正确诊断,而医生约为 50% 到 55%。”@ScienceNews 补充背景(14 点赞,5,656 浏览量):“截至 2025 年,全球每 5 名医生中就有 1 名使用 AI 为复杂病例提供第二意见。”@AI_4_Healthcare 报道 Hippocratic AI 的 Polaris 5.0(8 点赞,309 浏览量,6 收藏):“医疗语音 AI 正变得更临床化——药物安全检查、升级逻辑、多语言切换和合规基准。”

与前日对比: 5 月 2 日通过 @emollick 报道了同一项 Science 研究,达到 21K 浏览量。今天信号通过 @NewsfromScience 继续保持 11K+ 浏览量,并因 Polaris 5.0 商业部署故事而扩展。叙事正在从“研究中 AI 打败医生”演进为“AI 正被部署到临床”。


1.7 开源机器人与物理 AI 🡕

@lukas_m_ziegler 宣布(60 点赞,1,552 浏览量,37 收藏):“100% 开源机械臂!Seeed Studio 发布 reBot-DevArm。硬件蓝图包括钣金和 3D 打印零件。软件包括 Python SDK、ROS1/2、Isaac Sim 和 LeRobot。1.5 kg 负载、650 mm 最大伸展距离、6 DoF 加夹爪,重复精度低于 0.2 mm。这才是真正的机器人开源。”@davidbaseeth 观察到(10 点赞,145 浏览量):“人形机器人发展很快。但真正的差异化不再是硬件。而是背后的 AI。”

reBot-DevArm 开源机械臂规格与设计

与前日对比: 5 月 2 日没有机器人报道。这是新信号,开源机械臂获得 37 收藏(高保存/点赞比,显示构建者兴趣)。可访问硬件与 AI 软件生态(LeRobot、Isaac Sim)的汇聚,降低了物理 AI 实验门槛。


2. 令人困扰的问题

AI 反弹扩散到科技圈之外 -- High

@GaryMarcus 写道(31 点赞,1,072 浏览量):“除了编程(那里有明确价值)和少数其他领域,生成式 AI 对社会是净负面。GenAI 正在破坏中学和大学教育,打开大规模监控,增加虚假信息、未经同意的 deep fake porn、就业偏见和经济差距,用垃圾内容淹没世界。”@andrenidae_e 补充(15 点赞,146 浏览量):“如果你曾经把生成式 AI 用于一个不是绝对需要它的任务,我确实认为你是一个自私、懒惰的人。”这种挫败感不再小众——它横跨社会影响、教育、环境成本和创意劳动。

应对策略: 实践者在做区隔:承认编程用例有价值,同时批评更广泛的社会部署。

AI 生成代码发布可被利用的安全缺陷 -- High

@benbieler 报道(3 点赞,55 浏览量,2 收藏):“在安全敏感基准中,55.8% 的 AI 生成代码包含可被利用的安全缺陷。令人惊讶的是:当被要求审查时,模型 78.7% 的时间能正确识别自己的脆弱代码。但默认情况下它们仍会生成同样缺陷。”生成能力和审查能力之间的差距意味着风险是系统性的——模型知道得更好,但没有明确提示就不会做得更好。

应对策略: 两遍工作流:先生成,再用同一模型审查;或使用专用安全扫描(例如 @zauthinc 提到的每次扫描 20 美元的 zauth pentesting)。

基准仍与现实脱节 -- Medium

@jskoiz 表示(45 点赞,2,181 浏览量):“基准太蠢了。去用它。用一整天做真实工作。不是构建什么垃圾 AI slop wrapper。”@tom_doerr 回复:“如果你需要一整天才发现自己不喜欢它,那差距就不可能那么大。”挫败感持续存在:模型发布优化的是基准分数,而不是实际开发者体验。

REST API 不适合 AI 数据消费 -- Medium

@jsensarma 指出(24 点赞,2,045 浏览量,9 收藏):“REST API 就是不适合给 AI 提供数据。文档化的 REST API 在 schema 上非常‘规范化’。要组装任何有意思的东西都需要大量往返。但 AI 想一次扫描大量数据。”规范化 REST schema 与 AI 对批量数据的需求不匹配,在没有文件系统等价物的非工程用例中制造摩擦。@championswimmer 回复:“你是在说 GraphQL 终于被证明了吗?”

艺术家仍反对在创意工作中使用 AI -- Medium

@drealstephen 提问(40 点赞,1,824 浏览量):“我理解设计师为什么可能需要它,但艺术家/插画师,你们怎么看?AI 是完全不能碰,还是有些场景允许使用?”问题本身——需要请求许可——揭示了创意实践中围绕 AI 正当性的持续社区张力。


3. 人们期望的功能

替代 REST API 的 AI 批量数据访问层

@jsensarma 阐述(24 点赞,2,045 浏览量):“每家公司都会使用 AI。所以旧技术栈需要重新思考。缺少原始数据访问、规范化 API、简单/标准化更新——似乎都说明应用暴露数据的方式需要重新思考。”业务系统缺少 Git 为代码提供的类似文件系统的数据访问。安全(细粒度访问控制)是硬约束。紧迫性:High。

按真实任务跑通情况评估的 AI 工具,而不是按 token 速度

@cyrilXBT 演示(64 点赞,4,258 浏览量)了这个缺口:一个每 token 更快但啰嗦 5.5 倍的模型,跑同一任务反而多花 14 分钟。开发者想要映射到答案时间和任务成本的效率指标,而不是合成吞吐基准。紧迫性:High。

与生成速度匹配的 AI 安全

@benbieler 量化了这个缺口:模型 55.8% 的时间生成脆弱代码,但审查时 78.7% 的时间能识别自己的缺陷。人们期望的是:安全内置在生成步骤中,而不是作为审查附加在后面。@zauthinc 提供部分解决方案,每次扫描 20 美元,但真正需求是内联预防。紧迫性:Medium。

匹配硬件可访问性的开源机器人软件生态

@lukas_m_ziegler 称赞(60 点赞,37 收藏)reBot-DevArm 让硬件更可及,但也指出该技术栈需要 Python SDK、ROS1/2、Isaac Sim 和 LeRobot 知识。37 收藏说明构建者对从硬件到训练行为都真正交钥匙的机器人有强烈需求。紧迫性:Medium。


4. 使用中的工具与方法

工具 / 方法 类别 评价 优势 局限
Gemma 4 31B 开放模型(编程) (+) 在同一任务上比 Qwen 3 token 效率高 5.5 倍;尽管 tok/sec 更低,却早 14 分钟跑完 参数少于竞争对手;除单次对比外独立验证有限
Qwen 3 27B 开放模型(编程) (?) 每秒 token 更高;参数规模有竞争力 极度冗长(33K token 对 6K 需求);尽管生成更快,任务跑完更慢
Grok 4.3 前沿模型 (+) 领先的每美元智能比;Colossus 基础设施支撑 锁定 xAI 生态;引用的第三方基准有限
Claude 4.6 / Mythos 前沿模型 (+) 在 37 个基准指数上符合趋势;Mythos 代表 6 个月进展 在 Anthropic 内部 ECI 上只有 2 分;智能体式编程评估滞后
reBot-DevArm 机器人硬件 (+) 完全开源;0.2mm 重复精度;6 DoF;Python SDK + ROS + Isaac Sim + LeRobot 1.5kg 负载限制;需要多工具软件知识
Polaris 5.0(Hippocratic AI) 医疗语音 AI (+) 药物安全检查、升级逻辑、多语言切换、合规基准 独立验证待定;医疗监管批准不清楚
Tesla “Live MRI” AI 硬件诊断 (+) 把 8 小时诊断变成 5 分钟修复;可视化热力图;绕过死芯片 Tesla 内部工具;未商业化
zauth + Dappit AI 应用安全 (+) 一键渗透测试;发现的关键漏洞多 2 倍,成本低 12 倍 新集成;历史记录有限
Slack AI Security Agents 企业安全 (+) 由专家、批评者、时间线和可验证报告构成的受控调查工作流 特定于 Slack 生态

今天的主导模式是效率胜过原始能力。实践者正在转向能更快跑完任务(Gemma 4 胜过 Qwen 3)、每单位智能成本更低(Grok 4.3)或提供具体业务结果(Polaris 5.0 临床检查、Tesla 硬件节省)的工具。从“哪个模型分数最高”到“哪个模型最便宜最快地办完任务”的转变正在加速。


5. 人们在构建什么

项目 构建者 功能 解决的问题 技术栈 阶段 链接
reBot-DevArm Seeed Studio / @lukas_m_ziegler 完全开源的 6-DoF 机械臂,重复精度 0.2mm 机器人因成本和封闭设计而难以被学生与研究者使用 Python SDK, ROS1/2, Isaac Sim, LeRobot, sheet metal + 3D print Released post
Pacely AI Coach @kekkozrl AI 教练系统,学习 15 名 RLCS 职业选手倾向,并按他们的打法回放比赛 电竞玩家缺少基于特定职业打法建模的个性化教练 AI replay analysis, heatmaps, benchmarking Coming soon post
Tesla Live MRI Tesla(@tslaming 使用 watchdog 传感器和热力图的 AI 超级计算机芯片可视化诊断工具 死芯片检测需要数小时日志解析,并报废数百万美元硬件机架 Watchdog sensors, hidden networking, color-coded heat maps Deployed post
Binance AI Compliance @binance 24 项 AI 倡议,100+ 个模型,用于欺诈检测和合规 大规模加密欺诈超过手动检测能力 100+ ML models Live post
zauth x Dappit @zauthinc 面向 AI 应用的一键渗透测试,关键漏洞发现多 2 倍、成本低 12 倍 AI 应用带着可被利用漏洞发布;传统渗透测试成本数千美元 Automated security scanning Live integration post
Pixel Agents @simplifyinAI GitHub 上的开源智能体框架 实用 AI 智能体实践模式 Python, GitHub Open-source post
AI Hardware Calculator A1 Laboratory / @tobiaswup 检查设备规格,并用 S-F 等级显示哪些开源模型可本地运行 用户不知道自己的硬件能否承载本地 AI 模型 Web-based calculator Live post
Citi Arc Citi(@Palak_Chahal1 在银行内部自动化研究、数据分析和客户准备的 AI 智能体 合规密集环境中的手动分析师工作流 Agentic AI Launched post

6. 新动态与亮点

NVIDIA 中国市场份额从 95% 到 0% -- Jensen Huang 公开发声

[+++] Jensen Huang 公开把美国出口政策描述为“基本适得其反”,称 H20 禁令后 NVIDIA 在中国 AI 芯片市场份额从 95% 跌至 0%。这条由 @StockSavvyShay 报道(208 点赞,24,594 浏览量)的表态很值得注意,因为它来自一位现任 CEO,且其公司失去了最大的非美国市场。与此同时,中国 AI 创业公司(Moonshot、DeepRoute AI、StepFun)正在重组为国内注册,说明这更像永久脱钩,而不是暂时中断。

Richard Dawkins 认真参与 AI 意识讨论

[++] 一位著名进化生物学家在 UnHerd 发表文章,质疑 Claude 是否具有意识,说明 AI 意识已经从计算机科学猜测进入主流知识讨论。这条回应帖(343 点赞,20,990 浏览量)获得当天最高点赞数。这不是技术讨论——而是一个文化时刻,AI 领域之外的人开始追问“它有意识吗?”

面向 AI 数据中心的光子内存 -- $PENG 披露路线图

[++] @BryzonX 详细介绍(10 点赞,414 浏览量,5 收藏)Penguin Solutions 的光子内存路线图:当前 KV cache 使用铜连接,每个集群提供 11TB,但光子 cache 将解锁 1000+ TB——增加 90 倍。“铜无法承载智能体式 AI 所需带宽,否则会熔化或变慢。”商业发布目标为 2027 年初。AI 内存从电子互连转向光子互连,可能代表数据中心架构的阶段性变化。

Bank of England 将 AI 治理列为监管优先事项

[+] @Edenaofficial 报道(39 点赞,1,683 浏览量):“Bank of England 现已将 AI 治理列为 2026 年监管优先事项。AI 不再只是可选创新。监管者越来越把它视为系统重要性基础设施。”当央行把 AI 提升到监管优先事项,合规要求随之而来——既创造监管负担,也为治理工具创造市场机会。


7. 机会在哪里

[+++] 替代业务系统 REST API 的 AI 原生数据访问层 -- @jsensarma 指出,REST API 与 AI 消费数据的方式在结构上不兼容:规范化 schema 需要大量往返、缺少批量访问、缺少标准化变化检测。Git 之所以适用于代码,是因为它提供类似文件系统的访问。每个业务系统(CRM、ERP、HRIS)都需要一个 AI 等价物。构建“业务数据 Git”层的公司——并提供细粒度访问控制——将解决每家企业在 AI 走出工程用例后都会遇到的缺口。(source)

[+++] Token 效率基准与优化工具 -- @cyrilXBT 演示了跑完任务所需 token 比每秒 token 数更重要,在相同任务上展示了模型之间 5.5 倍效率差距。随着智能体循环在数千次迭代中复合成本,按任务测量和优化 token 效率——而不是吞吐——对生产 AI 经济性变得关键。今天还没有这一指标的标准。(source)

[++] 独立于中国的 AI 芯片供应链 -- NVIDIA 在中国市场份额从 95% 跌至 0%,说明出口管制会制造永久市场转移。中国公司现在有结构性动机大规模构建国内替代方案。为服务中国市场的非 NVIDIA AI 芯片提供设计工具、IP 模块或制造能力的公司,将回应一个随着禁令每持续一个月而扩大的缺口。(source)

[++] 面向金融监管机构的 AI 治理与合规工具 -- Bank of England 将 AI 治理提升为监管优先事项,再加上 Citi 部署 AI 智能体用于研究和合规,说明金融服务正在进入强制性 AI 治理阶段。构建专门面向金融监管机构的审计轨迹、模型风险管理和可解释性工具的公司,将满足会被执行、而非可选的合规要求。(source, source)

[++] 光子内存与互连基础设施 -- Penguin Solutions 面向智能体式 AI 工作负载的 1000+ TB 光子 KV cache 路线图(对比铜连接 11TB)代表跃迁式提升。随着智能体式 AI 需要持久上下文和大规模 KV cache,铜带宽变成物理瓶颈。光子互连制造、光信号冷却和内存控制器设计领域的公司,将回应 hyperscaler 已经在试样的基础设施需求。(source)

[+] 内联 AI 代码安全(生成时预防) -- 模型 55.8% 的时间生成可被利用代码,但审查时 78.7% 能识别自己的缺陷。机会是把它压缩为一步:模型拒绝生成脆弱模式,而不是在生成后审查中捕获它们。这可以是微调层、运行时约束或模型包装器。(source)


8. 要点总结

  1. AI 基础设施投资论点现在有 1.4 万亿美元超大规模云厂商积压承诺作为硬证据。 Google Cloud(462B 美元)、Amazon(364B+ 美元,不含 Anthropic 的 100B 美元交易)和 Microsoft(627B 美元,同比增长 99%)共同承诺了前所未有的资本。投资者正在映射从硅到电力再到内存的完整技术栈,@jvisserlabs 关于“AI 建设还早”的帖子达到 13K 浏览量。(source, source)

  2. 美中 AI 脱钩现在是永久性的,而不是周期性的。 Jensen Huang 公开称 H20 禁令“基本适得其反”,同时中国创业公司重组为国内注册,这说明供应链断裂是结构性的。中国既有动机,也越来越有能力构建独立于美国硬件的平行 AI 基础设施。(source, source)

  3. Token 效率,而不是 token 速度,正在成为重要的生产 AI 指标。 直接对比显示,尽管每 token 生成更慢,Gemma 4 仍比 Qwen 3 早 14 分钟跑完(所需 token 少 5.5 倍),这重塑了实践者评估模型的方式。随着智能体循环复合成本,这个区别决定 AI 部署能否在规模化时经济可行。(source)

  4. AI 意识讨论已通过 Dawkins 进入主流知识文化。 当天互动最高的帖子(343 点赞、21K 浏览量)是关于 Richard Dawkins 质疑 Claude 意识的评论。不论这个哲学问题能否解决,它出现在主流讨论中都会改变公众对 AI 能力的感知,并可能影响围绕“AI 权利”或“AI 人格”的监管框架。(source)

  5. AI 进展辩论正在分裂为量化乐观主义与文化悲观主义。 一项 37 基准分析显示 Claude 4.6 和 Mythos 仍在趋势线上;与此同时,强硬论点认为 LLM 是“骗局”,产生 30%+ 错误并处于“发展平台期”。分裂在方法论上:一边衡量能力曲线,另一边衡量社会影响。两者可能同时正确。(source, source)

  6. 开源机器人硬件正在达到可访问门槛,软件成为差异化因素。 reBot-DevArm 提供 200 美元级机械臂、0.2mm 重复精度和完整开源技术栈(ROS、Isaac Sim、LeRobot)。60 点赞中有 37 收藏,显示异常高的构建意图。瓶颈已经从“我买得起硬件吗”转向“我能训练行为吗”,而这正是 AI 实验室具备能力优势的地方。(source)

  7. 金融监管机构正在把 AI 从创新提升为系统性基础设施。 Bank of England 将 AI 治理列为监管优先事项,再加上 Citi 在合规工作流中部署智能体式 AI,确认金融服务 AI 正从实验转向受监管。在这一领域构建产品的公司还有 12-18 个月窗口期,之后合规要求会固化为强制框架。(source)