美国民事大语言模型无证执业、侵权性干预合同、滥用程序、AI幻觉责任进行中
日本生命保险诉 OpenAI 案:ChatGPT“无证执业”第一案

ChatGPT“无证执业”第一案

重要性评级
法院:美国伊利诺伊州北区联邦地区法院(芝加哥)
当事方:原告:日本生命保险美国公司(Nippon Life Insurance Co. of America);被告:OpenAI, Inc.

日本生命保险公司起诉OpenAI,指控其ChatGPT产品构成侵权性干预合同、滥用程序及无证执业,索赔1030万美元。

内容目录
AI 风险雷达

五维风险综合评估

版权风险
数据合规
平台责任
算法责任
隐私侵权

最高风险维度:版权风险

案情概述

本案源于一起工伤理赔纠纷。2024年1月,Graciela Dela Torre与日本生命保险公司达成和解。和解后,Dela Torre将律师回复函上传至ChatGPT,询问是否遭遇“煤气灯操控”,ChatGPT肯定了她的怀疑。受此影响,Dela Torre解雇律师,并开始依赖ChatGPT寻求法律策略和文书起草帮助,以自我代理方式向法院申请重启已和解案件。在ChatGPT辅助下,Dela Torre提交了21份动议、1份传票、8份通知和陈述,其中包含由ChatGPT“幻觉生成”的虚假判例“Carr v. Gateway”。法院认定这些文件“不具有任何合法法律或程序目的”并全部驳回。随后,Dela Torre再次借助ChatGPT对日本生命保险公司提起新的诉讼。日本生命保险公司因此起诉OpenAI,指控其ChatGPT构成侵权性干预合同、滥用程序和无证执业,并索赔1030万美元。OpenAI对此回应称诉状毫无依据,并指出其使用政策禁止用户将ChatGPT用于法律或医疗建议。

核心争议焦点

  • 1AI的“认知”能否等同于法律上的“明知”?
  • 2“无证执业”能否适用于软件公司?
  • 3AI幻觉的法律责任
  • 4AI产品责任问题

双方观点

原告主张

原告提出三项诉因: 1. 侵权性干预合同:原告主张ChatGPT在明知和解协议存在的情况下,仍生成法律论点和文书,鼓励并强化Dela Torre挑战协议的意愿,构成第三方“诱导违约”。 2. 滥用程序:原告主张Dela Torre若无ChatGPT辅助,作为“手部患有疾病、无法律经验的非专业人士”,根本不可能完成如此大量的诉讼文书,ChatGPT是其滥用司法程序的实质性原因,应作为共同侵权人承担责任。 3. 无证执业(Unauthorized Practice of Law,UPL):依据伊利诺伊州法,未经许可从事法律服务构成藐视法庭。原告主张ChatGPT持续向公众提供法律研究、文书起草、策略分析等服务,而未取得任何司法管辖区的律师执业资格,违反了州法的强制性规定。

被告抗辩

OpenAI发言人表示:“这份诉状毫无任何依据。”(this complaint lacks any merit whatsoever.)OpenAI的使用政策明确规定,用户不得将ChatGPT用于法律或医疗建议,除非有持证专业人士参与。

关键证据

Dela Torre与ChatGPT的对话记录(上传律师回复、询问法律策略);ChatGPT生成的虚假判例“Carr v. Gateway”;OpenAI在2024年10月更新服务条款、禁止用于法律建议的行为。

AI技术详情

技术类型:大语言模型
技术原理示意图 · 大语言模型
训练数据书籍/文章/代码分词处理TokenizationTransformer注意力机制输出生成文本/代码大语言模型工作原理 · 训练阶段数据流向

技术实现说明

本案涉及的是OpenAI开发的大型语言模型ChatGPT。该模型能够根据用户输入生成文本,包括法律论点、文书草稿,甚至“幻觉生成”虚假判例。原告主张ChatGPT作为一种工具,其输出对Dela Torre的行为产生了实质性影响,且其“上下文处理”能力在法律上是否能被认定为“认知”是核心争议。

延伸阅读

法律意义

本案是全球首例系统性将AI聊天机器人置于“干预合同”、“滥用程序”及“无证执业”审视框架下的诉讼,被多方评论为AI法律责任领域的里程碑案件。其判决结果将对AI服务提供者的责任边界、AI生成内容的法律效力及用户行为的归责产生深远影响。同时,本案的走向或将直接影响美国纽约州正在审议的禁止AI聊天机器人冒充专业人士提供实质性回复的新法案进程。

行业影响

本案可能促使AI服务提供商更严格地限制其产品在法律等专业领域的应用,或强制增加免责声明和专业人士参与机制。AI开发者可能需要更深入地研究和解决AI“幻觉”问题,并重新评估其产品的营销策略。此外,本案也可能推动相关立法,明确AI在专业服务领域的法律地位和责任。
阿来律师 AI分身
AI 分身