ChatGPT遭用户抵制,奥特曼紧急认错重新创作
![]()
当"取消ChatGPT"的话题在美国社交媒体话题榜上以指数级速度攀升,这个由代码和算法构建的AI神话正在遭遇前所未有的信任危机,这场风暴的源头,始于OpenAI与美国国防部的一份合作协议——一个看似寻常的商业合作,为何在短短72小时内演变为席卷千万用户的抵制运动?
用户"用脚投票":抵制背后的三重诉求
在Sensor Tower的实时数据中,2月28日的美国应用商店呈现出魔幻般的反差:ChatGPT的卸载量较前一日暴涨295%,而此前30天的日平均卸载率仅为9%,其下载量曲线急转直下,从合作消息公布前的周五环比增长14%,骤降至2月28日的-13%、3月1日的-5%。
这场抵制的核心诉求,远比表面"反对合作"更复杂,在Reddit、X平台(原Twitter)等社交场域,用户评论集中指向三个焦虑点:对技术监控的恐惧("当AI能被政府随意调用,普通人的隐私还安全吗?")、对算法中立性的质疑("OpenAI是否已沦为五角大楼的'技术附庸'?")、对企业决策透明度的不满("为何不先和用户商量就签协议?")。
一位长期使用ChatGPT的开发者在X平台的评论颇具代表性:"我曾相信它是'技术理想主义'的产物,直到发现它能轻易被塞进'国防'的黑箱——这和我最初使用它的初衷完全背道而驰。"
从"闪电合作"到"紧急刹车":OpenAI的72小时危机公关
2月28日:一份"致命协议"的诞生
2月28日,OpenAI首席执行官奥特曼在X平台宣布:公司已与五角大楼达成协议,将AI模型部署至机密网络,他强调这是"坚持原则的选择"——"AI不得用于国内大规模监控,武力使用必须由人类负责",但短短12小时后,社交媒体上开始出现"#CancelChatGPT"的话题标签,单日卸载量数据印证了用户的愤怒。
3月3日:奥特曼的"认错式整改"
当用户抵制声浪达到临界点,奥特曼在X平台发布万字长文,承认合作决策"过于仓促",并提出三项关键修正:
- 国内监控禁令:明确AI系统"不得被故意用于对美国公民或国民的国内监控",禁止通过采购或使用个人可识别信息进行追踪、监视;
- 情报机构"防火墙":服务确保"不被用于国防部情报机构",若未来向此类机构提供服务,需单独修改合同;
- 民主程序博弈:"应由政府而非企业主导关键决策",强调"若收到违宪命令,宁愿入狱也不执行"。
这场"紧急刹车"能否重建信任?部分用户质疑:"临时画的红线,真的能挡住权力的诱惑吗?"
AI界的"分手潮":当技术理想遭遇权力博弈
与ChatGPT形成鲜明对比的是另一家AI巨头Anthropic,就在ChatGPT宣布合作的同一天,Anthropic因"对AI应用范围存在根本分歧",宣布与五角大楼终止谈判,这一决策直接推动其产品Claude的下载量在2月28日暴涨51%,并登顶美国App Store榜首,排名较一周前跃升20余位。
这一现象揭示了AI企业的普遍困境:当技术能力与权力需求碰撞,"商业合作"与"用户信任"如何平衡? OpenAI的协议修改被业内解读为"用技术伦理换取生存空间",而Anthropic的"宁舍利益不舍立场"则为市场提供了另一种范本。
技术伦理的"刹车与油门":AI需要"安全护栏"吗?
在这场风波背后,是整个AI行业的深层伦理拷问,随着ChatGPT、Claude等模型逐渐渗透社会治理、国家安全等领域,"技术刹车"的必要性被空前凸显,OpenAI的整改措施虽划定了"红线",但"如何证明AI系统未被滥用"仍是未解难题——毕竟,技术的黑箱特性使得"禁止监控"的承诺难以验证。
有AI伦理学者指出:"真正的安全护栏,不在于一纸禁令,而在于建立透明的监督机制,当OpenAI将'民主程序'作为合作前提时,它既是在回应公众质疑,也是在为自身争取'技术话语权'。"
ChatGPT的这场信任危机,本质上是技术、资本与权力的三角博弈,奥特曼的紧急认错或许能暂缓抵制浪潮,但要重建用户对AI企业的信任,仍需跨越"技术透明化"与"商业独立性"的双重鸿沟,毕竟,当AI成为社会运行的基础设施,用户要的不仅是"不伤害"的承诺,更是"不被伤害"的保障。
更多一手游戏信息请关注攻略蜂巢
DLSS 4.5动态多帧生成首测 5080性能跃升 5090零提升
KK官方对战平台爆款新图我被魔兽包围了,要爽玩?这次你真被包围了!
Steam后台泄露女神异闻录4,复兴版,定价DLC信息属实?
浣熊推币机今日正式上线!首周82折,爽玩混乱又爽快的推币体验