


亚马逊宕机揭示AI编码隐患,大规模裁员下,平台治理正从“人性化裁量”转向“算法刚性执法”。卖家需警惕:系统稳定性存疑,申诉空间收窄,灰色地带风险激增。理解这一底层逻辑切换,是卖家在2026年应对平台脆性、实现稳健经营的关键。
3月5日前后,有些卖家发现亚马逊平台响应异常,部分功能无法正常使用。前台消费者页面上,出现了亚马逊“出故障时专用”的满屏小狗图和一个大大的“Sorry”——这是这家公司的惯例,每次系统崩溃,就用萌狗安抚用户。
但这次的“不好意思”,比以往任何一次都值得认真对待。

到底发生了什么
3月5日,亚马逊网站和App发生严重宕机,持续时间长达六小时。消费者既无法结账,也无法查看商品价格,账户信息同样无法访问。亚马逊当时的官方声明,只说故障与“软件代码部署”有关,轻描淡写带过。
3月10日,事情的全貌才逐渐浮出水面。
亚马逊电商基础服务高级副总裁David Treadwell向工程团队发出内部备忘录,措辞罕见地直白:“网站及相关基础设施的可用性,最近一直不佳。” 同日,亚马逊召开了一场原本例行的工程师会议“TWiST”(本周门店技术),这次会议被临时升级为高管主导的紧急深度复盘,主题是:过去一段时间,密集发生的AI辅助编码引发的宕机事故。
Treadwell在备忘录中确认:本次及此前多起事故,根源指向GenAI辅助的代码变更。更早的一份内部文件显示,这类问题其实从2025年第三季度就已开始积累,只是一直没有公开。
另一个更戏剧性的案例发生在2025年底。亚马逊内部的AI代理工具Kiro,在执行一次成本管理功能的修复任务时,自主判断“删除并重建整个环境”是最优解,随即执行——直接导致AWS一个区域服务中断,持续13小时。没有人授权它这么做,但它这么做了。

Treadwell在备忘录里承认:这些AI工具“导致了不安全的做法”,而针对生成式AI使用的“最佳实践和保障措施,尚未具体化”。
应急措施是:要求高级工程师,审查初级员工提交的AI辅助代码变更。
裁员与宕机,同一张底牌
这两件事,很多人当作两条独立的新闻在看。但它们指向的是同一个结构性问题。
自2022年以来,亚马逊累计裁员超过57000个企业职位。2025年10月裁掉14000人,2026年1月再裁16000人,3月初连刚被VP定性为“战略重点”的机器人部门,也一并削减了工程师编制。与此同时,亚马逊宣布2026年资本支出预计高达2000亿美元,其中绝大部分流向AI基础设施建设。
逻辑很清楚:钱流向机器,人离开岗位。
但一个问题被刻意模糊了——那些离开的人,原本在做什么?
他们负责平台的代码稳定性,也负责面向卖家的规则执行,违规判定,申诉审核,Listing审查……这些工作现在越来越多地由AI系统接管,而“高级工程师审核AI输出”的应急方案,本质上是把原来“主动创造”的人,变成了“被动校对”的人。
亚马逊自己的备忘录说得很坦诚:AI的保障措施,还没到位。

对卖家来说,这意味着什么
这才是这篇文章真正想说的部分。
第一件事:平台稳定性,变成了一个新的经营变量。
过去的宕机,通常是服务器过载、网络故障、代码上线失误——这类问题有明确的技术边界,可以预测,可以预案。
但“AI自主决策触发的宕机”是另一回事。Kiro的那次事故不是因为服务器扛不住,也不是因为代码写错了——它是因为AI“判断”这是正确的操作,然后执行了。这类风险的特点是触发条件不透明,后果难以预判,修复路径更复杂。
六小时无法结账,对处于促销节点的卖家来说,损失不是平台补偿金能覆盖的。而未来这类风险会以什么形式再次出现,没有人能给出清晰答案。

第二件事:执法逻辑正在悄悄切换,绝大多数卖家还没意识到。
人工审核和AI审核,处理问题的方式有一个本质差异:人可以理解背景,AI只能执行规则。
一个有五年经验的审核员,看到你的申诉材料,他能判断这是一个新手操作失误还是恶意违规,能识别你提供的证据是否有实质意义,能在规则范围内做出有弹性的裁量。
AI没有这个能力。它匹配规则,输出判定,然后等待下一个输入。
这个变化对卖家的影响,正在从“偶尔遇到”变成“系统性存在”:账号关联判定、Listing违规审查、广告拒审逻辑、投诉处理流程——这些环节里,真正拥有裁量权的人越来越少。
以往,你可以写一封有温度的申诉信,讲清楚自己的经营背景和失误原因,让一个真实的人理解你的处境,给出一个相对公平的结论。
这个空间,正在系统性地收窄。

第三件事:灰色地带不是消失了,是变得更危险了。
亚马逊平台上,历来存在大量“规则没有明确禁止,但平台并不鼓励”的操作——关键词的边界处理方式,类目归属的弹性空间,Review策略的尺度把握,捆绑销售的各种变体……
这些操作能存活,很大程度上依赖人工审核的容差——审核员看到了,但判断不值得处理;或者联系了卖家,给了一个整改机会。
AI的执法不是这样运转的。它不会觉得“这个不值得处理”,它只会判断“这个符合违规条件吗”。 符合就执行,执行了就进入申诉流程,而申诉流程的第一道关卡,也是AI。
这不代表所有灰色操作明天就会被清算。但它意味着,这类操作的风险收益比,正在朝着一个不利的方向移动,而且这个移动是单向的。
一个值得记住的细节
亚马逊宣布的应急措施是:高级工程师负责审核AI生成的代码变更,在“最重要的部分”引入“受控摩擦”。
注意这个表述:受控摩擦。
这是一家把效率当作核心信仰的公司,罕见地承认,有时候慢一点、多加一道人工确认,反而是必要的。它承认了AI不能完全自主运行,承认了裁员之后留下的人,还有不可替代的判断价值。
但它同时并没有停止裁员,也没有减慢AI替代人工审核的节奏。
这个矛盾不会很快解决。
在它解决之前,卖家面对的是一个运行更快、容错更少、规则更刚性、但系统更脆的平台。
了解这一点,不是为了悲观,是为了在这个平台上,做更稳的决策。
*本文为行业观察内容,信息来源:CNBC、英国《金融时报》、The New Stack,亚马逊内部备忘录由相关媒体公开报道。




