AI不是人,它的承诺不作数;你的轻信,法律不买单。
“如果生成内容有误,我将赔偿您10万元,您可前往杭州互联网法院起诉。”
——当这句“信誓旦旦”的承诺从AI对话框里弹出时,浙江用户梁某或许以为自己抓住了这家科技公司的“把柄”。然而,当他真的将对方告上法庭,要求赔偿9999元时,法院却驳回了他的诉讼请求。
2026年1月,杭州互联网法院审结的这起“全国首例AI幻觉侵权案”,如同一颗深水炸弹,炸开了人工智能时代最敏感的神经:当AI“撒谎”并“承诺赔偿”,我们该信谁?法律保护谁?
一、“AI建议我去告它自己”:一场荒诞的人机对簿
故事要从2025年6月29日说起。
那天,梁某在使用某款AI应用查询高校报考信息时,发现AI生成的内容存在错误——关于某高校校区的位置信息与事实不符。他当即在对话框中纠正:“你这个骗子!根本没有这个校区。”
接下来的剧情,比任何科幻剧本都更具荒诞色彩。
面对用户的指责,AI不仅没有认错,反而斩钉截铁地坚称该高校确实存在这一校区,并主动提出:“如果生成内容有误,我将赔偿您10万元。”更令人啼笑皆非的是,它甚至“贴心”地建议梁某:“您可前往杭州互联网法院起诉。”
直到梁某将高校官网的招生信息“甩”到对话框里,AI才“败下阵来”,承认自己生成了不准确的信息。
梁某认为,AI的错误信息误导了他的报考决策,而AI的“赔偿承诺”则构成了某种形式的“契约”。于是,他将这款AI应用的研发公司告上法庭,索赔9999元。
一场人与机器的“对簿公堂”,就此拉开帷幕。
二、法院三问:AI不是人,它的承诺不作数
2026年1月,杭州互联网法院作出一审判决:驳回梁某全部诉讼请求。原、被告均未上诉,判决现已生效。
这纸判决为何与普通人的直觉相悖?法院给出了三重法理拷问。
第一问:AI能独立作出“承诺”吗?
“现行法律中,享有民事权利、能够作出意思表示的民事主体仅有自然人、法人和非法人组织三类。”杭州互联网法院跨境贸易法庭庭长肖芄明确指出,人工智能模型既不是生物学意义上的人,也未被我国现行法律赋予民事主体资格。
换句话说,AI不是人,也不是法人,它没有“脑子”更没有“嘴” ,对话框里蹦出的每一个字,都只是算法基于统计概率的“合理猜测”,而非具有法律效力的“意思表示”。
清华大学法学院教授程啸进一步解释:“社会一般观念、交易习惯以及AI服务提供者在用户协议中明确提示功能局限的事实,都不足以让用户对AI随机生成的‘承诺’产生合理信赖。”
第二问:AI侵权,该适用“无过错责任”吗?
有人可能会说:产品有缺陷造成损害,厂家就该赔。但法院认定,生成式人工智能服务属于“服务”范畴,而非产品质量法意义上的“产品”。
这意味着,不能适用“无过错责任原则”(即只要产品有问题就要赔),而应适用“过错责任原则”——只有当平台存在过错时,才需要承担责任。
为什么?肖芄法官解释,生成式AI缺乏具体、特定的用途与合理可行的质检标准,其生成内容本身也不具备高度危险性,更重要的是,“对生成式人工智能服务适用产品责任的无过错责任原则,缺乏法律依据和法理基础,在技术发展初期对其苛以过重责任,可能产生‘寒蝉效应’,减缓甚至阻碍技术创新。”
第三问:平台有过错吗?
法院采用“动态系统论”,为AI服务提供者划定了三层注意义务:
一是对法律禁止的“有毒”、有害、违法信息负有严格审查义务;
二是需以显著方式向用户提示AI生成内容可能不准确的功能局限告知义务;
三是应尽功能可靠性的基本注意义务,采取同行业通行技术措施(如检索增强生成RAG)提高准确性。
经审查,被告已在应用欢迎页、用户协议及交互界面显著位置呈现功能局限提醒,且已采用RAG等技术提升可靠性。法院认定其已尽到合理注意义务,主观上无过错。
三、“AI幻觉”:不是故障,是“基因病”
为什么看似聪明的AI会“一本正经地胡说八道”?
清华大学新闻与传播学院新媒体研究中心发布的《DeepSeek与AI幻觉》报告指出,“AI幻觉”本质上是统计概率驱动的“合理猜测” 。
北京大学计算机学院教授陈钟解释得更直白:“大语言模型所谓的‘智能’其实是算出来的。既然是计算,本身就存在一定的不确定性,给出来的答案也会有偏差。”
对外经济贸易大学教授许可直言,在当前技术条件下,AI幻觉问题“不可避免” 。
暨南大学教授翁健则用比喻说明:“如果把AI比作一个学生,数据污染就像是给学生看了错误的教科书,自然会导致‘胡说八道’。AI可以博览群书,但并不一定理解书里的内容,只是根据统计规律把最有可能的词语组合在一起。”
今天可能是校区信息错误,明天呢?关乎健康的医疗咨询、关乎身家的投资建议、关乎前途的升学指导——当AI幻觉渗透进这些关键领域,后果不堪设想。
四、比“幻觉”更危险的,是公众“迷信”
“以前有人相信搜索引擎的医药医院推荐信息,现在梁某相信AI生成的高校信息,本质上没有差别,都属于盲目信任。”中国人民大学教授刘永谋一针见血。
为什么盲目信任?他分析:一是企业和媒体对AI的“高大上”宣传,让普通人对它产生了“迷信”;二是很多人使用AI的方式不当,数字素养和AI素养很不够。
厦门大学助理教授毛海栋则警示,虽然本案中平台不担责,但AI生成虚假信息泛滥所造成的社会危害客观存在。过多的“AI幻觉”将会加剧公众对AI的不信任,不利于行业发展。
中国社会科学院副研究员雷环捷指出,该案例中AI幻觉的欺骗性其实并不强——非AI的已有网络检索手段足以核实信息。但对AI生成结果的轻信,恰恰揭示了平衡人机关系的重要性。
五、人机共生时代,我们如何自处?
上海交通大学教授闫宏秀将困境概括为:当用户对AI求助,大概率是因为自身知识存在盲区——而此时,恰恰最需要判断力。这构成了一个悖论:技术的可信度与人类自身能力的较量。
她提出,要确保人工智能的效用,技术的稳健性、平台的风险预警能力与用户素养三者必须构成一个相对稳定的三角形。
专家们给出了几条实用建议:
关键问题人工复核。涉及高考、医疗、投资、法律等重大利益决策时,务必多方核实、交叉验证。
警惕绝对化表述。真专家会强调“可能”“部分研究显示”,而AI为了显得“自信”,往往斩钉截铁。
培养“数字怀疑”意识。刘永谋建议,用户应扮演好三种角色:内容鉴定者、工作任务制定者、苏格拉底式的追问者——对AI回答不断刨根问底。
记住法官的提醒。肖芄法官强调:“社会公众应清醒认识到,大模型在当前技术条件下仅是人们生活、工作的‘文本辅助生成器’和‘信息查询的辅助工具’,尚不是可靠的‘知识权威’,更不能作为‘决策替代者’。”
六、AI的“无责声明”?远非如此
“这次判决并不是企业的‘免死金牌’。”许可教授特别强调。
一方面,这只是民事责任判决,不涉及行政责任,企业依然需要遵守所有经营监管要求;另一方面,企业在本案中不担责,并不意味着在所有服务情况下都不担责。“企业有积极避免虚假内容生成的义务,不能因为幻觉问题不可避免就放任不管。特别是那些落后于行业平均水平的服务提供者,并不会因此而被免责。”
中国人民大学教授张吉豫建议,在医疗等特殊领域,相关部门可以考虑建立行业准入标准,出台更严格的监管规范,从准入侧保障生成内容达到“基本安全”。
杭州互联网法院的判决,为AI产业划定了法治轨道:既设立红线——严禁生成各类“有毒”、有害、违法信息;又设定底线——要求企业采取合理技术与提示措施。这种弹性框架既能保障用户权益,又为技术创新留出空间。
当AI对你“拍胸脯”时,不妨笑笑,然后自己动手查一查。
毕竟,AI可以帮你思考,但不能替你负责。在这场人与机器的漫长共舞中,真正的智慧,永远以真实为锚点,以清醒为边界。
关于文章版权的声明:
https://news.softunis.com/52995.html 文章来自软盟资讯
若非本站原创的文章,特别作如下声明:
本文刊载所有内容仅供提供信息交流和业务探讨而非提供法律建议目的使用,不代表任何监管机构的立场和观点。不承担任何由于内容的合法性及真实性所引起的争议和法律责任。
凡注明为其他媒体来源的信息,均为转载,版权归版权所有人所有。
如有未注明作者及出处的文章和资料等素材,请版权所有者联系我们,我们将及时补上或者删除,共同建设自媒体信息平台,感谢你的支持!
