顶级AI研究人员和CEO在22字声明中对"灭绝人类的风险"提出警告-环球视点


(资料图片仅供参考)

一批顶级人工智能研究人员、工程师和首席执行官就他们认为人工智能对人类构成的生存威胁发出了新的警告。这份22个英文词汇的声明被修剪得很短,以使其尽可能地被广泛接受,内容如下:"减轻人工智能带来的灭绝风险应该是一个全球优先事项,与其他社会规模的风险如大流行病和核战争并列。"

这份声明由位于旧金山的非营利组织人工智能安全中心发布,包括GoogleDeepMind首席执行官Demis Hassabis和OpenAI首席执行官Sam Altman以及Geoffrey Hinton和Youshua Bengio在内的人物共同签署了这份声明--他们是因其在人工智能方面的工作而获得2018年图灵奖(有时被称为"计算界的诺贝尔奖")的三位人工智能研究人员中的两位。在撰写本报告时,今年的第三位获奖者、现任Facebook母公司Meta的首席人工智能科学家Yann LeCun还没有签字。

该声明是对人工智能安全的复杂和有争议的辩论的最新高调干预。今年早些时候,一封由许多支持22字警告的人签署的公开信,呼吁人工智能发展"暂停"6个月。这封信在多个层面受到了批评。一些专家认为它夸大了人工智能带来的风险,而另一些人同意风险,但不同意信中建议的补救措施。

人工智能安全中心(Center for AI Safety)的执行董事丹-亨德利克斯(Dan Hendrycks)告诉《纽约时报》,今天声明的简洁性--没有提出任何潜在的方法来减轻人工智能带来的威胁--是为了避免这种分歧的产生。"我们不想推动一个非常大的30种潜在干预措施的菜单,"亨德利克斯说。"当这种情况发生时,它稀释了信息。"

Hendrycks将这一信息描述为担心人工智能风险的行业人士的"出柜"。"有一个非常普遍的误解,甚至在人工智能界,认为只有少数的末日主义者,"亨德利克斯告诉《纽约时报》。"但是,事实上,许多人私下里会对这些事情表示担忧。"

这场辩论的大体轮廓是熟悉的,但细节往往是无休止的,是基于人工智能系统迅速提高能力,并不再在安全可控运行下的假设情景。许多专家指出,像大型语言模型这样的系统的迅速改进,证明了未来智能的预期收益。他们说,一旦人工智能系统达到一定的复杂程度,可能会变得无法控制其行动。

其他人则怀疑这些预测。他们指出,人工智能系统甚至无法处理相对平凡的任务,比如说,驾驶汽车。尽管在这一研究领域付出了多年的努力和数十亿的投资,但完全自动驾驶的汽车仍远未成为现实。怀疑论者说,如果人工智能连这一个挑战都处理不了,那么在未来几年,这项技术还有什么机会与人类的其他成就相媲美呢?

同时,人工智能风险倡导者和怀疑论者都认为,即使不改进其能力,人工智能系统在今天也会带来一些威胁--从它们的使用导致大规模监视,到为错误的"预测性警务"算法提供动力,以及为制造错误信息和虚假信息提供便利。

推荐DIY文章
年轻人对烹饪需求的提升,为何能让olayks欧莱克在618爆单?
全球销量突破1200万,感恩回馈,江铃福顺官方降价,机不可失!!
3米看百吋电视!趁618在客厅搭起IMAX影院
蓬莱8大推荐美食 蓬莱小面也是山东蓬莱的传统地方名吃_世界报资讯
不思议迷宫圣诞大作战好玩吗 不可思议的迷宫圣诞大战难度策略分析 速读
中国再添一处世界遗产 该项目也成为中国第54处世界遗产
精彩新闻

超前放送