技术专家和计算机科学专家警告,AI对人类生存的威胁不亚于核战争和全球性流行病,甚至为AI辩护的企业领导者也更加谨慎地看待对AI技术可能导致的灭绝风险。
周二,非营利研究机构人工智能安全中心(Center for A.I. Safety)发表了一封公开信“人工智能风险声明”(statement of A.I. risk),包括ChatGPT开发商OpenAI的首席执行官山姆·奥特曼在内的300多人联合签署了该声明。这份简短的声明阐述了AI的相关风险:
(资料图片)
“减轻AI带来的风险应该像流行病和核战争等社会性风险一样成为全球优先事项。”
这封信的序言讲到,该声明旨在就如何准备应对AI技术潜在的灭世风险问题“引发讨论”。其他签署者包括谷歌(Google)前任工程师杰弗里·辛顿(Geoffrey Hinton)和蒙特利尔大学(University of Montreal)计算机科学家约书亚·本吉奥(Yoshua Bengio),他们因对现代计算机科学做出了巨大贡献而被称为AI的两位教父。最近几周,本吉奥和辛顿已多次就AI技术在不久的将来可能发展出的危险能力发出警告。辛顿最近刚离开谷歌,因此他可以更公开地谈论AI的风险。
这并非第一封这类信,此前也曾有公开信呼吁人们进一步关注先进AI研究在缺乏严格的政府监管下可能会带来的毁灭性后果。今年3月,埃隆·马斯克(Elon Musk)和1000多名技术人员和专家曾呼吁人们将对先进AI的研究暂停6个月,称AI技术可能造成破坏。
本月,奥特曼也对美国国会发出警告称,随着AI技术的飞速发展,当前监管已经不足以满足需求了。
奥特曼最近签署的这份声明并没有像先前那封信一样概述具体目标,而是力求推动讨论。本月初,辛顿在接受美国有线电视新闻网(CNN)采访时表示,他没有签署三月份的那封信,因为鉴于中美已经在AI技术领域展开竞争,暂停AI研究是不现实的。
他说:“我不认为我们可以阻止AI的发展。我没有在呼吁大家停止AI研究的请愿书上签名,因为即使美国人停止了研究,中国人也不会停。”
尽管OpenAI 和谷歌等AI领先开发商的高管都呼吁政府加快对AI技术的监管步伐,但一些专家警告称,在AI目前带来的问题(包括散布误导信息和可能引起偏见等)已经造成严重破坏的情况下,讨论AI技术未来的会导致的灭绝风险只会适得其反。其他人甚至认为,奥特曼这些首席执行官之所以公开讨论灭绝风险,是为了转移人们对AI技术当前问题的注意力,而这些问题已经酿成了许多后果,包括促进了关键的大选年时虚假新闻的及时传播。
但对AI持悲观态度的人也警告称,AI技术的发展速度十分迅猛,其会导致的灭绝风险可能会过快地成为一个问题,让人们猝不及防。人们越来越担心,能够为自己思考和推理的超级智能AI会比许多人想象的更快成为现实,而且一些专家警告称,AI技术当前与人类利益和福祉并不契合。
本月,辛顿在接受《华盛顿邮报》(Washington Post)采访时表示,超级智能AI正在快速发展,可能只需要20年就能成为现实,现在是时候该讨论先进AI的风险了。
他说:“这不是科幻小说。”(财富中文网)
译者:中慧言-刘嘉欢
相关稿件
最近更新
• 山姆·奥特曼:AI带来的“灭绝风险”不亚于疫情和核战争 环球资讯
• 王鹤棣趴着和宋丹丹张国立聊天 开心时还会翘脚脚_世界聚看点
• 环球资讯:金洲管道:公司会持续做好经营管理,使公司更具价值
• 龙迅股份: 公司产品目前主要应用在鸿海科技的会议系统及平板显示等业务领域
• 安井食品: 小龙虾生长周期短、季节性强,其价格在每年采购季会随供给、需求等行情呈现波动
• 钱江摩托:截至2023年5月31日,公司股东人数为18793人-全球视点
• 东江环保:公司于每月初在“公司声音”专栏发布截止至上个月末的公司A股股东户数
• 焦点消息!盛讯达:融资净偿还85.58万元,融资余额1.52亿元(06-02)
• 世界新动态:新亚制程被立案引连锁反应 定增或中止,还遭投资者索赔
• 安顺市气象台发布暴雨黄色预警信号【Ⅲ/较重】【2023-06-05】