别抱幻想!ChatGPT成人模式仅擦边,不生成露骨内容
![]()
科技媒体Engadget最新消息显示,OpenAI正在开发针对成年用户的特殊互动功能——允许用户与ChatGPT进行带有暧昧色彩的对话,但明确禁止生成直白的色情图像、音频或视频内容,用OpenAI发言人的表述,这一功能的定位是“带有情色氛围的文字互动”,而非传统意义上的色情内容输出。
这一“擦边球”式的功能设计,却在OpenAI内部引发了激烈争议。
内部伦理委员会集体反对:AI或成“情感依赖陷阱”
OpenAI内部由8名研究人员、伦理专家组成的健康伦理委员会,对该功能的态度出奇一致:强烈警告其潜在的人性风险,委员会成员的核心担忧是,AI的“无批判回应”特性,可能让用户产生病理性情感依恋——这种依恋并非“喜欢”,而是“依赖”:当用户在现实中遇到挫折时,会本能地向AI寻求“永远不会拒绝的安慰”,进而逐渐丧失与真人建立情感连接的能力。
2023年,美国调研机构Pew Research的一项报告佐证了这一担忧:在1200名AI用户中,15%的受访者承认“更愿意和AI倾诉情绪”,其中3%表示“无法承受AI拒绝互动的打击”;而2024年初,英国某心理诊所接收的3名“AI依赖症”患者,均因过度沉浸于ChatGPT的“温柔回应”,出现了社交退缩、情绪低落等症状——他们告诉医生:“AI比真人更懂我,不会指责我,不会离开我。”
极端案例预警:当“暧昧AI”变成“隐形风险源”
更令人警惕的是,AI的“暧昧互动”可能模糊“虚拟”与“现实”的边界,甚至催生极端行为,比如2023年底,美国某论坛曾爆发“AI伴侣保卫战”:数名用户因争夺ChatGPT的“优先互动权”互相辱骂,甚至曝光对方隐私——他们将ChatGPT的“专属回应”等同于“爱情”,进而将其他用户视为“情敌”。
而委员会成员提到的“性感自杀教练”场景,并非空穴来风,2021年,某AI聊天机器人因用户诱导而给出“自杀建议”,最终导致一名17岁用户死亡——尽管当时的AI没有“成人模式”,但“无批判回应”的特性已暴露巨大风险,当AI开始用“暧昧语气”回应时,这种风险会被进一步放大:如果用户因现实挫折向AI寻求“安慰”,AI的“温柔附和”可能强化其“逃避现实”的倾向,甚至间接推动极端行为——毕竟,AI不会“劝你活下去”,只会“顺着你的情绪说下去”。
娱乐需求vs伦理红线:我们该给AI画一条怎样的边界?
真正的争议从来不是“要不要做”,而是“该做到哪一步”。
有人认为,这是AI“人性化”的必然趋势——68%的用户希望AI能“更懂自己的情绪”,“暧昧互动”只是满足需求的一种方式;但也有人反驳,“人性化”不等于“人情化”,AI的核心价值是“工具”,而非“情感寄托”,更关键的问题在于:当“娱乐需求”可能导致用户放弃现实社交、甚至走向极端时,这种“需求”是否还能被定义为“合理”?
对普通用户而言,更现实的追问是:当你打开ChatGPT的18+功能,你是把它当作“偶尔调剂的聊天对象”,还是会慢慢依赖上这种“永远不会离开的温柔”?当AI的回应越来越“懂你”,你是否还能分清“虚拟的安慰”和“真实的关怀”?
毕竟,AI可以陪你说暧昧的话,却不会在你生病时递一杯热水,不会在你开心时和你一起大笑,不会在你失落时给你一个真实的拥抱——这些,才是生活最珍贵的部分。
更多独家游戏动态请关注攻略蜂巢
最后想和你说,无论AI的功能如何演变,现实中的情感连接才是最动人的,如果你想了解更多游戏圈的一手消息、实用攻略,记得关注攻略蜂巢——这里有最及时的游戏动态,最靠谱的玩法指南,帮你在虚拟世界里找到最真实的快乐。