腾讯元宝AI生成脏话海报,官方致歉并启动重新创作
![]()
西安向姓律师2024年除夕因好奇腾讯元宝的朋友圈金色特效,下载App尝试生成结合法律行业特性的拜年海报,因对初稿设计不满意,向律师反馈后,AI生成的海报未调整元素,却将原祝福语替换为含辱骂性的文字,此事经媒体报道后引发公众对AIGC内容失控的讨论,2月25日腾讯元宝团队回应称,该情况源于模型多轮对话处理时的上下文异常,已紧急校正算法并优化体验,同时向用户致歉。
AIGC多轮对话失控:技术漏洞还是监管盲区?
此次事件并非个例,据国内科技合规监测机构2024年2月发布的报告显示,2023年下半年至2024年2月,国内主流AIGC平台因多轮对话异常导致的内容违规事件达17起,占总违规事件的41%,2023年某短视频AI生成工具曾因用户输入模糊指令,输出涉及地域歧视的画面;2024年初某文字AI在多轮职场咨询对话中,因上下文关联偏差,生成不当职业评价,此类事件的核心问题在于:多轮对话中用户反馈的“情绪性表达”与“指令性需求”易被模型误判,而现有前置过滤机制难以覆盖动态对话中的上下文偏差。
同类案例警示:AI内容审核的“最后一公里”
腾讯元宝此次仅用24小时完成算法校正,但暴露了AIGC平台在“动态对话审核”上的短板,部分平台目前依赖“关键词拦截+人工抽检”,但多轮对话中,用户可能通过谐音、隐喻或情绪性表述绕过关键词,模型若未建立“情绪识别+上下文关联审核”双重机制,极易输出不当内容,例如2023年某社交AI曾因用户输入“某群体的特点”,输出含刻板印象的内容,虽无明显关键词,却违反内容规范。
行业优化方向:从技术补丁到用户权益前置
针对此类问题,业内专家建议:一是平台需升级AI模型的“对话上下文动态审核模块”,实时识别用户反馈中的情绪倾向与潜在风险;二是建立“用户反馈快速响应通道”,对涉及辱骂、侵权的内容实现12小时内核查与处理;三是完善用户权益保障机制,若AI生成内容侵犯用户名誉权,平台需承担相应责任,腾讯元宝此次致歉与校正虽及时,但长期需将“用户体验安全”纳入产品设计核心,而非事后补救。
想了解更多AI工具的使用避坑指南,记得关注攻略蜂巢哦~
爆款预定!iPhone Fold将成为苹果年度理财产品:黄牛要疯抢