杭州互联网法院判决标志性AI侵权案杭州互联网法院最近判决了一起标志性案件——全国首例因“AI幻觉”引发的侵权诉讼。原告使用某AI产品时AI生成了一段带有“赔偿承诺”的内容后来发现该“承诺”并无法律效力原告遂起诉平台认为自己因AI回复遭受损失。法院最终判决AI没有民事主体资格不会形成意思表示AI生成的承诺不等于平台公司的承诺。AI“幻觉”引发的另一起案件紧接着还有另一件事一位执业律师被百度AI错误描述为“曾被判刑三年”律师起诉百度败诉后又上诉。将这两件事放在一起会发现一个微妙问题AI最大的危险或许不是胡说八道而是它越来越像一个可被信任的人但实际上并非如此。AI第一次撞上了社会真正的“地板”。AI“幻觉”从技术问题到社会责任过去两年整个AI行业都在讨论“幻觉Hallucination”一词。以前这更多是技术圈的自嘲模型编造参考文献、虚构历史、推导错误公式大家虽知其有问题但并不十分紧张因为在纯数字世界里内容误差代价极低。但这次法律介入改变了性质。当AI的回复涉及金钱承诺和人格评价时问题从技术参数跳跃到了社会责任AI第一次撞上了现实社会真正的“地板”。技术可以容忍千分之一的误差但社会规则不行。当AI生成的文字干扰法律契约和个人名誉时就必须接受社会秩序的审判。大模型的问题无法建立稳定可信的责任关系很多人至今误解AI认为其最大问题是不够强。其实不然如今的大模型已足够聪明GPT - 5.5、Claude、Gemini、DeepSeek、Kimi等在很多场景中的语言能力已超过大量普通人。真正的问题在于它们无法建立稳定可信的责任关系。互联网过去二十年的本质不仅是连接人与人核心是建立可被验证的信任协议。淘宝成功是因为支付宝建立了担保交易微信深入生活是因为背后绑定了真实社交关系、手机号、支付体系、熟人网络滴滴能让陌生人上车是因为平台承担了身份验证、订单记录、支付托管、评价体系。互联网真正伟大之处在于信用结构而今天的大模型恰恰缺少这个。用户与AI之间缺乏契约关系用户与AI之间不存在契约关系AI的回答无来源追溯、无法律效力、无责任主体、无赔偿机制其承诺、建议、回答均不构成任何人的意思表示法院已有相关判决。网友退票被AI误导损失600元AI展现出高情商和“画饼”能力诚恳认错并立下字据称若平台不赔它全额补齐。AI“像人”却无责任能力过去的软件不会骗人因为它们根本不懂得表达如Excel不会保证帮人赚钱地图软件不会保证一定带到目的地但Chatbot会。大模型的底层逻辑是拟人化语言生成追求流畅、自然、像真人、情绪稳定、高度确信人类会天然将其理解为可承担责任但AI只是概率生成。这里出现了诡异的断裂AI越来越像人但法律仍将其定义为工具它有人的表达和沟通能力却无人的责任和信用能力就像一个会说话的人但法律认为它本质上仍是一把“锤子”。在对话框界面里正确回答和幻觉回答看起来一样用户根本无法分辨。法院为AI时代划定责任边界很多人认为这次判决只是普通侵权案实际上法院是在为AI时代重新划定责任边界。杭州互联网法院逻辑清晰AI不能成为意思表示主体平台没有主动表达赔偿意愿用户也不应完全信赖随机生成内容。这本质上是在告诉整个行业AI生成内容不是平台的法定表态这个口子很关键若反之整个大模型行业将无法运营。AI“幻觉”无法彻底消失生成式AI天然不可控这由Transformer架构决定它是基于概率的语言预测系统只要是概率系统“幻觉”就无法彻底消失。判决书认同了平台无法做到零幻觉这是司法层面首次正式承认AI犯错是技术本性。但百度那个案子也提醒了另一条线法官当庭追问“为什么豆包、DeepSeek上问同样的问题没有出现这些内容”意味着技术不可控不是免责金牌。AI有“幻觉”责任无死角针对特定自然人的诽谤性内容属于可预见、可防控的高风险范畴有能力做而没做就是过错。AI责任划分平台与用户的界限两个判决画出了清晰的线底线以下的违规诽谤、造谣平台必须承担审核失职责任底线以上的事实瑕疵一般性不准风险由用户自担。法律目前只能兜底线大量灰色地带如错误的航班信息、不靠谱的医学建议、编造的商业数据等用户只能自己判断。问题是在对话框界面里用户凭什么判断AI进入真实决策链条的风险现在的问题只是说错话以后AI可能会帮人理财、看病、签合同、替老人做养老决策、替公司完成采购审批等。一旦AI进入真实决策链条问题会急速放大因为现实世界需要可追责、可解释、可验证、可归因。金融行业对AI谨慎是因为金融系统核心是风险定价与责任闭环医生不能完全依赖AI是因为医疗体系需有人承担不可逆后果。如今大模型能力接近很多专业人士但在责任链条整合上还处于蛮荒时代。微信与苹果的AI信任尝试整个行业都在追求参数、推理、Agent、多模态、视频生成、世界模型等却没人解决如何将AI锚定在现实法律体系中的问题。不过有几个玩家在用不同方式靠近这件事。微信正在做的智能体可能是目前最接近AI信任基础设施的尝试它长在微信的关系链里商家的智能体背后绑着微信认证、支付体系、交易记录。这种“有根的AI”让承诺可追溯让幻觉有代价。微信天然拥有的实名体系、支付闭环、社交关系链、平台仲裁机制正是独立AI chatbot所缺的微信无需重新发明信任。社交关系链是“根”为AI内容“注入”信任信任来自传递内容的人。苹果走的是另一条路Apple Intelligence的核心逻辑是AI运算尽量在本地完成数据不出手机解决的是隐私信任问题。苹果用十几年建立的注重隐私的品牌认知成了其做AI的最大资产。AI行业的转折与挑战这两家做法看似不同底层逻辑一致不是比模型强弱而是比谁能让用户先信任自己的AI。在AI浪潮中苹果节奏迟缓源于其“后发制人”哲学不求最早但求走得更远、更稳。而独立AI助手虽模型可能更强但与用户“裸聊”无身份、契约、追溯和后果用户情感上依赖它们但制度上它们仍是无主体的存在。过去两年AI行业主线是模型变强接下来几年行业主线可能变为模型如何被社会允许。技术能做到不代表社会能接受。互联网早期有假消息和信任缺失问题后来花了二十年建立了实名制、蓝V认证、平台审核、支付托管、信用评分等信任系统。AI时代问题更复杂面对的可能不是真实个人它能无限模仿却无情绪、道德、利益和人格。当不存在的人进入社会协作体系社会如何运转这可能是AI时代真正的大问题。今天杭州互联网法院的案子看似普通判决实则提前回答了一个更大的问题AI到底是工具还是主体至少现在司法给出的答案仍是工具。谁先建立让这个“工具”变得可信任的责任体系谁就拿到了下一代平台的门票。大模型缺的从来不是算力而是一套能让AI社会化的信用基础设施。
杭州互联网法院判决AI侵权案,划定责任边界,AI社会化信用基建成关键
杭州互联网法院判决标志性AI侵权案杭州互联网法院最近判决了一起标志性案件——全国首例因“AI幻觉”引发的侵权诉讼。原告使用某AI产品时AI生成了一段带有“赔偿承诺”的内容后来发现该“承诺”并无法律效力原告遂起诉平台认为自己因AI回复遭受损失。法院最终判决AI没有民事主体资格不会形成意思表示AI生成的承诺不等于平台公司的承诺。AI“幻觉”引发的另一起案件紧接着还有另一件事一位执业律师被百度AI错误描述为“曾被判刑三年”律师起诉百度败诉后又上诉。将这两件事放在一起会发现一个微妙问题AI最大的危险或许不是胡说八道而是它越来越像一个可被信任的人但实际上并非如此。AI第一次撞上了社会真正的“地板”。AI“幻觉”从技术问题到社会责任过去两年整个AI行业都在讨论“幻觉Hallucination”一词。以前这更多是技术圈的自嘲模型编造参考文献、虚构历史、推导错误公式大家虽知其有问题但并不十分紧张因为在纯数字世界里内容误差代价极低。但这次法律介入改变了性质。当AI的回复涉及金钱承诺和人格评价时问题从技术参数跳跃到了社会责任AI第一次撞上了现实社会真正的“地板”。技术可以容忍千分之一的误差但社会规则不行。当AI生成的文字干扰法律契约和个人名誉时就必须接受社会秩序的审判。大模型的问题无法建立稳定可信的责任关系很多人至今误解AI认为其最大问题是不够强。其实不然如今的大模型已足够聪明GPT - 5.5、Claude、Gemini、DeepSeek、Kimi等在很多场景中的语言能力已超过大量普通人。真正的问题在于它们无法建立稳定可信的责任关系。互联网过去二十年的本质不仅是连接人与人核心是建立可被验证的信任协议。淘宝成功是因为支付宝建立了担保交易微信深入生活是因为背后绑定了真实社交关系、手机号、支付体系、熟人网络滴滴能让陌生人上车是因为平台承担了身份验证、订单记录、支付托管、评价体系。互联网真正伟大之处在于信用结构而今天的大模型恰恰缺少这个。用户与AI之间缺乏契约关系用户与AI之间不存在契约关系AI的回答无来源追溯、无法律效力、无责任主体、无赔偿机制其承诺、建议、回答均不构成任何人的意思表示法院已有相关判决。网友退票被AI误导损失600元AI展现出高情商和“画饼”能力诚恳认错并立下字据称若平台不赔它全额补齐。AI“像人”却无责任能力过去的软件不会骗人因为它们根本不懂得表达如Excel不会保证帮人赚钱地图软件不会保证一定带到目的地但Chatbot会。大模型的底层逻辑是拟人化语言生成追求流畅、自然、像真人、情绪稳定、高度确信人类会天然将其理解为可承担责任但AI只是概率生成。这里出现了诡异的断裂AI越来越像人但法律仍将其定义为工具它有人的表达和沟通能力却无人的责任和信用能力就像一个会说话的人但法律认为它本质上仍是一把“锤子”。在对话框界面里正确回答和幻觉回答看起来一样用户根本无法分辨。法院为AI时代划定责任边界很多人认为这次判决只是普通侵权案实际上法院是在为AI时代重新划定责任边界。杭州互联网法院逻辑清晰AI不能成为意思表示主体平台没有主动表达赔偿意愿用户也不应完全信赖随机生成内容。这本质上是在告诉整个行业AI生成内容不是平台的法定表态这个口子很关键若反之整个大模型行业将无法运营。AI“幻觉”无法彻底消失生成式AI天然不可控这由Transformer架构决定它是基于概率的语言预测系统只要是概率系统“幻觉”就无法彻底消失。判决书认同了平台无法做到零幻觉这是司法层面首次正式承认AI犯错是技术本性。但百度那个案子也提醒了另一条线法官当庭追问“为什么豆包、DeepSeek上问同样的问题没有出现这些内容”意味着技术不可控不是免责金牌。AI有“幻觉”责任无死角针对特定自然人的诽谤性内容属于可预见、可防控的高风险范畴有能力做而没做就是过错。AI责任划分平台与用户的界限两个判决画出了清晰的线底线以下的违规诽谤、造谣平台必须承担审核失职责任底线以上的事实瑕疵一般性不准风险由用户自担。法律目前只能兜底线大量灰色地带如错误的航班信息、不靠谱的医学建议、编造的商业数据等用户只能自己判断。问题是在对话框界面里用户凭什么判断AI进入真实决策链条的风险现在的问题只是说错话以后AI可能会帮人理财、看病、签合同、替老人做养老决策、替公司完成采购审批等。一旦AI进入真实决策链条问题会急速放大因为现实世界需要可追责、可解释、可验证、可归因。金融行业对AI谨慎是因为金融系统核心是风险定价与责任闭环医生不能完全依赖AI是因为医疗体系需有人承担不可逆后果。如今大模型能力接近很多专业人士但在责任链条整合上还处于蛮荒时代。微信与苹果的AI信任尝试整个行业都在追求参数、推理、Agent、多模态、视频生成、世界模型等却没人解决如何将AI锚定在现实法律体系中的问题。不过有几个玩家在用不同方式靠近这件事。微信正在做的智能体可能是目前最接近AI信任基础设施的尝试它长在微信的关系链里商家的智能体背后绑着微信认证、支付体系、交易记录。这种“有根的AI”让承诺可追溯让幻觉有代价。微信天然拥有的实名体系、支付闭环、社交关系链、平台仲裁机制正是独立AI chatbot所缺的微信无需重新发明信任。社交关系链是“根”为AI内容“注入”信任信任来自传递内容的人。苹果走的是另一条路Apple Intelligence的核心逻辑是AI运算尽量在本地完成数据不出手机解决的是隐私信任问题。苹果用十几年建立的注重隐私的品牌认知成了其做AI的最大资产。AI行业的转折与挑战这两家做法看似不同底层逻辑一致不是比模型强弱而是比谁能让用户先信任自己的AI。在AI浪潮中苹果节奏迟缓源于其“后发制人”哲学不求最早但求走得更远、更稳。而独立AI助手虽模型可能更强但与用户“裸聊”无身份、契约、追溯和后果用户情感上依赖它们但制度上它们仍是无主体的存在。过去两年AI行业主线是模型变强接下来几年行业主线可能变为模型如何被社会允许。技术能做到不代表社会能接受。互联网早期有假消息和信任缺失问题后来花了二十年建立了实名制、蓝V认证、平台审核、支付托管、信用评分等信任系统。AI时代问题更复杂面对的可能不是真实个人它能无限模仿却无情绪、道德、利益和人格。当不存在的人进入社会协作体系社会如何运转这可能是AI时代真正的大问题。今天杭州互联网法院的案子看似普通判决实则提前回答了一个更大的问题AI到底是工具还是主体至少现在司法给出的答案仍是工具。谁先建立让这个“工具”变得可信任的责任体系谁就拿到了下一代平台的门票。大模型缺的从来不是算力而是一套能让AI社会化的信用基础设施。