人工智能的发展足够迅速,它可能带来的危险也足够明显,以至于OpenAI的领导层认为,世界需要一个类似于管理核能的国际监管机构--而且要快,但不要太快。在公司博客的一篇文章中,OpenAI的创始人Sam Altman、总裁Greg Brockman和首席科学家Ilya Sutskever解释说,人工智能的创新速度如此之快,以至于我们不能指望现有的机构能够充分地控制这项技术。
(资料图)
虽然这里有某种拍马屁的性质,但任何公正的观察者都清楚,这项技术,最明显的是OpenAI的爆炸性流行的ChatGPT对话机器人,代表了一种独特的威胁,也是一种宝贵的资产。
文章在细节和承诺方面比较轻描淡写,但也承认人工智能不会自己管理自己:
我们需要在领先的开发工作中进行某种程度的协调,以确保超级智能的发展以一种既能让我们保持安全又能帮助这些系统与社会顺利整合的方式进行。
我们最终可能需要一个类似于[国际原子能机构]的机构来开展超级智能工作;任何超过一定能力(或计算等资源)门槛的努力都需要接受国际权威机构的检查,要求进行审计,测试是否符合安全标准,对部署程度和安全级别进行限制,等等。
IAEA是联合国在核电问题上进行国际合作的官方机构,就像核不扩散监管一样,建立在这种模式上的人工智能管理机构可能无法进入并打开不良行为者的开关,但它可以建立并跟踪国际标准和协议,这至少是一个起点。
OpenAI的帖子指出,跟踪用于人工智能研究的计算能力和能源使用情况是相对较少的客观措施之一,可以而且可能应该被报告和跟踪。虽然可能很难说人工智能应该或不应该被用于哪些领域,但说用于人工智能的资源应该像其他行业一样受到监督和审计可能是有价值的。(该公司也建议较小的AI公司可以豁免监管,以避免扼杀创新的绿芽)。
领先的人工智能研究员和评论家Timnit Gebru今天在接受《卫报》采访时说了类似的话:"除非有外部压力要求做一些不同的事情,否则公司是不会自我监管的。我们需要监管,我们需要比单纯的利润动机更好的模式。"
OpenAI明显接受了后者,这让许多希望它名副其实的人感到惊愕,但至少作为市场领导者,它也在呼吁在治理方面采取真正的行动--除了最近的听证会,参议员们排队发表连任演讲,文稿大多以问句结束。
虽然该建议相当于"也许我们应该,比如,做一些事情",但它至少是行业内的一个对话启动器,表明世界上最大的单一人工智能品牌和供应商支持做一些事情。迫切需要公共监督,但"我们还不知道如何设计这样一个机制"。
虽然该公司的领导人说他们支持踩刹车,但现在还没有计划这样做,因为他们不想放弃"改善我们的社会"(更不用说底线)的巨大潜力,也因为有一种风险,即坏的行为者已经把他们的脚放在油门上。