OpenAI 受到了似乎是第一起针对 ChatGPT 生成的虚假信息的诽谤诉讼的打击。在 ChatGPT 表示沃尔特斯被指控诈骗和挪用非营利组织的资金后,佐治亚州的一位电台主持人马克沃尔特斯正在起诉该公司。
(资料图片仅供参考)
系统根据第三方的请求生成了信息,第三方是一位名叫 Fred Riehl 的记者。 Walters 的案件于 6 月 5 日提交给佐治亚州格威内特县高等法院,他正在向 OpenAI 寻求未指明的经济补偿。
鉴于对 ChatGPT 和其他聊天机器人生成的虚假信息的广泛投诉,此案值得注意。 这些系统没有可靠的方法来区分事实和虚构,并且当被要求提供信息时——尤其是当被要求确认提问者提出的某件事是真实的时——它们经常会编造日期、事实和数字。
通常,这些捏造只会误导用户或浪费他们的时间。 但是这种错误造成伤害的案例开始出现。 其中包括一名教授在 ChatGPT 声称他的学生使用 AI 撰写论文后威胁打不及格,以及一名律师在使用 ChatGPT 研究虚假法律案件后可能面临法庭制裁。 该律师最近告诉一名法官:“我听说过这个新网站,我错误地认为它是一个超级搜索引擎。”
OpenAI 在 ChatGPT 的主页上包含一个小的免责声明,警告系统“可能偶尔会生成不正确的信息”,但该公司还将 ChatGPT 作为可靠数据的来源,在广告文案中将系统描述为“获得答案”和“学习”的方式 新鲜玩意。” OpenAI 自己的 CEO Sam Altman 曾多次表示,与从书本中相比,他更喜欢从 ChatGPT 中学习新信息。
不过,目前尚不清楚是否有法律先例要求一家公司对 AI 系统生成虚假或诽谤信息负责,或者这个特定案例是否具有实质性价值。
传统上,在美国,第 230 条保护互联网公司免受第三方制作并托管在其平台上的信息的法律责任。 尚不清楚这些保护措施是否适用于 AI 系统,这些系统不仅会链接到数据源,还会重新生成信息(这一过程也会导致它们创建虚假数据)。
Walters在佐治亚州提起的诽谤诉讼可以检验这一框架。 该案例指出,一名记者 Fred Riehl 要求 ChatGPT 通过链接到在线 PDF 来总结一个真实的联邦法院案件。 ChatGPT 的回应是创建了一份虚假的案例摘要,该摘要详细且令人信服,但在几个方面是错误的。 ChatGPT 的摘要包含一些事实正确的信息,但也包含对Walters的虚假指控。 它说Walters被认为从一个名为第二修正案基金会的枪支权利非营利组织挪用了“超过 500 万美元”的资金。
Riehl 从未公开过 ChatGPT 生成的虚假信息,而是与另一方核实了细节。 从案件文件中不清楚Walters后来是如何发现这一错误信息的。
值得注意的是,尽管遵从了 Riehl 总结 PDF 的要求,但如果不使用额外的插件,ChatGPT 实际上无法访问此类外部数据。 该系统无法提醒 Riehl 这一事实是其误导用户能力的一个例子。
法学教授尤金·沃洛克 (Eugene Volokh) 曾撰写过有关人工智能系统法律责任的文章,他在一篇博文中指出,尽管认为“[针对人工智能公司] 的此类诽谤指控原则上在法律上是可行的”,但这一特殊诉讼“应该很难被支持。” Volokh 指出,Walters 没有将这些虚假陈述通知 OpenAI,给了他们删除它们的机会,并且 ChatGPT 的输出没有造成实际损失。 “无论如何,看看这里最终会发生什么将会很有趣,”Volokh 说。