Anti AI Hegemony / Humans Are Not Cost Centers

反对 AI 霸权
反对把人类劳动
压缩成模型预算

AI 可以是工具,但不能成为裁员说明书、招聘冻结口号、外包替代方案和监控放大器。 当公司一边发布 AI 产品、一边把“效率”翻译成缩编、降本和岗位消失,我们就应该把这件事说清楚。

Signals

趋势已经写在公开数据里

这些数字不代表“AI 注定毁掉就业”,但它们已经足够说明一件事: 企业正在把 AI 当成重新分配岗位、预算与权力的工具。

41%

全球雇主计划因 AI 自动化缩减部分岗位

WEF《Future of Jobs Report 2025》

77%

企业同时表示要对现有员工做再培训

问题不是有没有技术,而是谁来承担转型代价

69%

网络安全团队正走向常态化使用 AI 工具

ISC2 2025:AI 在安全工作中快速落地

89%

AI 赋能攻击活动在 2025 年显著上升

CrowdStrike 2026 Global Threat Report

Manifesto

我们反对的不是工具,
而是借工具扩张的支配逻辑

我们反对的是:把 AI 说成不可抗拒的历史进程,再把裁员、压强、监控、外包和决策去人化包装成“升级”。

  • AI 应该减轻重复劳动,而不是让普通员工先丢掉工作,再被要求自己为失业负责。
  • 任何“AI 优先”战略,都不该绕过透明披露、转岗培训、补偿机制和人工复核。
  • 创造内容、做判断、承担风险和守护系统的人,不能被简单标成“可优化成本”。
  • 程序员、测试、运维、设计、产品、数据和安全岗位唇亡齿寒,今天被替代的是别人,明天就可能轮到自己。
  • 尤其在网络安全、风控、医疗、教育、司法等领域,真人判断不是冗余,而是安全边界。

Cases

2025 到 2026 的国内外案例

这里把案例分成两类:一类是明确提到 AI、自动化、效率重组与缩编的案例; 一类是 AI 优先政策导致 headcount 更难增长、外包和合同工更容易被替代的案例。

Global / 2026-02

Amazon、Autodesk、WiseTech、Pinterest

Reuters 在 2026 年 2 月的汇总中,把多家公司列为“投资转向 AI、同时发生裁员或重组”的最新样本。 其中包括 Amazon 的 corporate 缩编、Autodesk 把开支转向云和 AI、WiseTech 把 AI 集成进产品与内部运营,以及 Pinterest 把资源改投 AI 角色。

来源:Reuters factbox,更新日期 2026-02-25
Global / 2025-04

Shopify:先证明 AI 做不了,再谈招人

Shopify CEO 在 2025 年 4 月公开备忘录,要求团队在申请新增 headcount 和资源前, 必须先证明任务不能由 AI 完成,并把 AI 使用写入绩效和日常工作基线。

来源:CNBC、TechCrunch,日期 2025-04-07
Global / 2025-04

Duolingo:AI-first 之后,合同工先被替代

Duolingo 在 2025 年公开 AI-first 方向,表示对“可由 AI 处理”的工作, 将逐步不再继续交给合同工。它不是最典型的大规模正式员工裁员案例, 但非常典型地展示了 AI 如何首先改变外围劳动关系。

来源:The Verge,日期 2025-04
Global / 2024-02 to 2025

Klarna:一个“700 人等效工作量”的样板

Klarna 官方案例称,其 AI 客服助手上线首月就处理了相当于 700 名全职坐席的工作量。 这类宣传很快成为行业叙事模板:AI 不只是“提效”,而是直接被当成 headcount 替代参照物。

来源:OpenAI x Klarna 官方案例页
China / 2025-11

百度:裁员与 AI 团队重组同时发生

2025 年 11 月,多家媒体报道百度在主要业务线进行人员调整,同时重组 AI 团队。 这一案例很典型:传统业务承压,资源继续向 AI 和云能力集中,而组织代价由员工承担。

来源:SCMP、财新,日期 2025-11-27 至 2025-11-29
China / 2025-07

Manus AI:AI 热潮中的创业公司也在重组和裁员

并不是只有大厂。2025 年 7 月,Manus AI 被报道裁掉北京大部分员工, 并把业务重心转向新区域。AI 热门赛道同样存在极速扩张后的人力回撤。

来源:SCMP,日期 2025-07-15
China / 2025-02

字节跳动:AI 部门更集中,权力更上收

字节跳动在 2025 年 2 月对 Seed 等 AI 研究线进行重组,基础研究直接上收至 CEO。 这不是公开宣布裁员的案例,但它体现了另一种变化:AI 会重塑组织层级、预算和话语权。

来源:SCMP,日期 2025-02-23
China / 2025-12

腾讯:AI Infra 被抬到更核心的位置

腾讯在 2025 年底重组 AI 相关职能,新设 AI Infra 和数据计算平台团队。 这类变化提醒我们,国内不少公司未必把“AI 导致裁员”说得很直白,但资源向模型、算力和平台团队集中已经非常明显。

来源:SCMP,日期 2025-12-17

Cybersecurity

网络安全不该被“自动化足够了”这句话削空

AI 正在加速钓鱼、深伪、社会工程、漏洞利用链条和恶意自动化。 在这种背景下削减安全团队,不是升级,而是失守。

安全岗位不是可随手删除的成本项

2025 年 ISC2 研究显示,AI 已经是安全团队最迫切的技能缺口之一,且超过三分之二的团队正走向常态化使用 AI 安全工具。 这意味着真正需要的是训练、治理和人机协作,而不是“既然有了 AI,就可以少招几个人”。

CrowdStrike 2026 年报告则显示,AI 赋能攻击活动显著上升。攻击面变大、节奏变快时,蓝队、SOC、IR、威胁狩猎和 AI 安全评估只会更重要。

如果安全人员被不透明、甩锅式、借 AI 之名推进的裁员波及,应该勇敢留下证据、发起联署、公开问题、推动审计和依法维权,而不是被迫独自吞下后果。

我们的网络安全立场

如果遭遇不公正裁员,反击的方式应该是专业、公开、合法且有组织的反击,而不是沉默退场。
  • 支持用 AI 做日志降噪、告警归并、情报整理和重复性排查,但不支持用它当裁撤值班分析师的理由。
  • 反对把安全判断完全交给黑箱模型,关键决策必须保留人工复核和责任链。
  • 反对企业把“AI 安全工具上线”当成预算削减借口,因为新的 AI 系统本身也需要审计、攻防测试和合规治理。
  • 安全从业者的任务是防御、披露、问责和修复滥用,不是为技术霸权背书。
  • 如果遭遇不公正裁员,反击的方式应该是专业、公开、合法且有组织的反击,而不是沉默退场。

Demands

我们主张什么

不是抽象地“反技术”,而是要求企业、平台和监管面对现实的人类代价。

透明披露

企业如果因为 AI、自动化和效率计划调整岗位,应该公开披露影响范围、时间表、补偿和转岗方案。

先培训再重组

若企业从 AI 中获取效率收益,就应先投入员工再培训和内部转岗,而不是先裁员再招聘更贵的少数 AI 岗。

程序员要团结

不要把前端、后端、测试、运维、算法、安全拆成彼此竞争的孤岛。面对 AI 导向的压缩,整个技术劳动群体需要共享信息、互相声援、集体发声。

保留人工责任

在安全、风控、审核和公共服务领域,必须明确“最终由谁负责”,不能把关键错误推给模型。