紧急呼吁:安全至上,暂停AI研发,玩家心声强烈要求实证保障
51
4
【标题】专家呼吁暂停超级智能研发,担忧潜在风险 【正文】 10月26日,中美两国人工智能领域的顶尖专家和技术领袖联名发出倡议,呼吁在科学界就“安全可控开发超级智能的广泛共识”达成之前,暂停超级智能的研发。该倡议由“未来生命研究所”发起,已获得包括人工智能先驱杰弗里·辛顿、苹果联合创始人史蒂夫·沃兹尼亚克等众多重量级人士的支持。 所谓“超级智能”,是指能在所有认知任务上超越人类的人工智能形态。目前,尽管大多数公司研发的仍属于通用人工智能(AGI),但超级智能所预示的能力已引发业界普遍忧虑。声明指出,多家领先的AI企业正竞相投入超级智能的研发,这一趋势引发了广泛担忧,包括人类在经济上被取代、自由与公民权利受损、尊严与控制权丧失,乃至国家安全风险。 当前,“超级智能”已成为AI领域的热词。从埃隆·马斯克的xAI到萨姆·奥特曼领导的OpenAI,多家机构正积极推进更先进的大语言模型研发。在这一背景下,科技界对人工智能发展的态度日益分化。 值得注意的是,即便是马斯克、奥特曼等AI研发前沿的领军人物,过去也曾对超级智能的风险发出警告。中国科学院计算技术研究所研究员曾毅指出,目前绝大多数企业所研发的仍属通用人工智能工具,并非真正意义上的超级智能。超级智能所带来的风险目前在科学上仍无法有效控制。美国企业如Meta设立超级智能实验室,以及阿里巴巴等中国公司公开宣称研发超级智能,这些动向已超出通用人工智能工具的范畴,值得高度关注。 截至10月23日中午,联署人数已达3193人。中国学界亦有重要代表加入,包括中国科学院院士、图灵奖得主姚期智,清华大学讲席教授张亚勤,以及清华大学苏世民书院院长薛澜等。
![]()
无限机兵免费DLC厄瑞涅战争熔炉上线 玩家评价褒贬不一到底值不值?