人民法院报1月26日报道,杭州互联网法院近日对全国首例生成式人工智能“幻觉”侵权案作出一审判决,认定生成式人工智能应用(AI)服务提供者不存在过错,不构成侵权,驳回原告的诉讼请求。

图源人民法院报视频
2025年6月,梁某使用某生成式AI应用查询高校报考信息,AI给出不准确信息。梁某指出错误后,AI坚称信息正确,还表示“若内容有误将赔偿10万元”。梁某起诉该AI的运营平台赔偿9999元。
法院审理认为,人工智能不具有民事主体资格,案涉AI生成的赔偿承诺,不能被认定为平台的“代理人”或“传声筒”,不产生法律效力。
法院认定,生成式人工智能服务属于“服务”范畴,而非“产品”,应适用一般过错责任原则,而非无过错原则。这意味着,AI生成不准确信息并不构成侵权,责任认定需考察平台是否存在过错。
判决书称:“如果在技术发展初期对AI服务提供者苛以过重的严格责任,产生‘寒蝉效应’,会阻碍技术创新。”
如何判断AI平台有没有责任?法院定了三条线:一是法律底线,绝不能生成违法内容;二是告知义务,须明确提示AI的局限性;三是技术努力,要采用合理技术减少错误。
此案中,法院审查后认定被告已完成大模型备案与安全评估,并在应用界面、用户协议等多处履行了提示说明义务,且原告未能证明其遭受了实际损害,故认定平台不存在过错。
当前AI大模型几乎都存在“胡说八道”的“幻觉”,即输出看似合理实则错误的内容,这是因为其技术本质是基于概率预测的内容生成。2025年9月,律师黄贵耕因百度AI自动生成其虚假犯罪信息而起诉百度公司索赔百万,该案已由北京海淀区法院立案受理。
针对此类AI“幻觉”带来的法律挑战,北京竞天公诚(杭州)律师事务所合伙人、律师何远建议,可以将AI视为“极其博学但喜欢撒谎的助手”,“涉及具体数字、人名、法规等内容,必须寻找权威来源核实。盲目相信算法生成的内容,本身可能违反了理性人的注意义务。”
对于用户在注册使用AI服务时签署的用户协议,何远表示,这被称为“格式合同”,凡是“不合理地免除己方责任、加重用户责任、排除用户主要权利”的条款,法院都有权依法认定其无效。因此,普通用户无需过度担心,“在算法面前,法律依然是最后一道防线。”
首例判决的核心价值在于,没有因噎废食地禁止技术,而是建立了一套以“过错”为核心的动态责任框架:鼓励平台尽力防错,也提醒用户保持审慎,共同在享受技术便利的同时管理好风险。