【资料图】
哥伦比亚的一名法官使用ChatGPT做出了法院裁决,这显然是第一次在人工智能文本生成器的帮助下做出法律裁决--或者至少是我们第一次知道。根据2023年1月30日的一份法庭文件,主持卡塔赫纳市第一巡回法庭的胡安-曼努埃尔-帕迪利亚-加西亚法官说,他用人工智能工具提出了有关该案件的法律问题,并将其答复纳入了他的裁决。
"这个决定的论据将根据人工智能(AI)的使用来确定,"加西亚在决定中写道,"因此,我们进入了这些程序,并提出的部分法律问题。"
"包括这些人工智能产生的文本的目的绝不是要取代法官的决定,"他补充说。"我们真正追求的是在证实人工智能提供的信息后优化起草判决书的时间。"
该案件涉及与一家医疗保险公司的争议,即一名自闭症儿童是否应获得医疗保障。根据法庭文件,输入人工智能工具的法律问题包括:"自闭症未成年人是否可以免于支付其治疗费用?"和"宪法法院的判例是否在类似案件中做出过有利的裁决?"
加西亚在裁决中包括了聊天机器人的全部回答,这显然是有法官第一次承认这样做。法官还在判词中写入了他自己对适用的法律先例的见解,并体积人工智能被用来"扩展所通过的决定的论点"。在详细介绍了与大赦国际的交流后,法官随后采用了大赦国际的答复和他自己的法律论据作为其决定的理由。
哥伦比亚法律并不禁止在法庭裁决中使用人工智能,但像ChatGPT这样的系统以给出有偏见的、歧视性的、或纯粹错误的答案而闻名。这是因为语言模型对文本没有实际的"理解",它只是根据用于训练系统的数百万个例子的概率来合成句子。
ChatGPT的创建者OpenAI已经实施了过滤器,以消除一些更有问题的回应。但开发者警告说,该工具仍然有很大的局限性,不应该被用来做重要的决策。
虽然本案显然是法官首次承认使用ChatGPT这样的人工智能文本生成器,但一些法院已经开始使用自动决策工具来决定量刑或刑事被告是否被保释,这是具有争议性的。这些系统在法院的使用受到了人工智能伦理学家的严厉批评,他们指出,这些系统经常强化种族主义和性别歧视的陈规定型观念,并放大了预先存在的不平等形式。
尽管哥伦比亚法院的文件表明,人工智能主要用于加快起草文书,而且其反应经过了事实核查,但这很可能是一个迹象,表明更多的事情正在发生。