2026.04.02 董潇 郭静荷 史晓宇 张续耀 陈超 栗晔 饶佳成
2023年和2024年,我们围绕人工智能风险进行了广泛探讨(请查阅我们此前发布的文章),而2025年标志着规则从原则走向落地的关键转折。监管机构正从自愿性原则与伦理指南,迈向针对实际产品的具体强制性规则。“负责任的人工智能”不再仅是纸面上的原则,在一些国家和地区已是快速迭代的运营合规实践:
中国在算法、深度合成、生成式人工智能等领域垂直立法的基础上,在内容标识、科技伦理、安全应急响应等领域进一步出台精细化规范和标准。
实践中,生成式人工智能"双备案"制度持续落地,专项执法行动与常态化治理相结合,监管规则进入实质性执行阶段。
欧盟《人工智能法案》迎来首个规则生效阶段,通用目的人工智能大模型相关规则已生效并即将进入执法期。
过去一年,多家中美科技公司因监管不确定性暂缓在欧盟推出部分AI产品。为应对过度监管可能导致的创新抑制,欧盟已提出人工智能法案综合改革提案,试图在执法层面向实用主义转向,其实际落地方案有待进一步追踪。
美国特朗普政府通过系列行政令重塑联邦AI监管框架,确立以发展为核心、放松监管的导向。
同时,美国各州以创纪录的速度推进垂直领域立法,加州成为前沿立法主阵地,覆盖高风险AI监管、透明度要求、消费者保护等核心议题,形成联邦与州层面的监管张力。
与此同时,人工智能相关司法案例激增,法院判决为前沿问题填补立法空白。例如,支撑人工智能的数据训练与版权保护之间的天然矛盾,引发了大量版权诉讼。2025年,美国和欧盟相继出现了具有里程碑意义的判例,反映出两地在价值取向上的差异。
下文为对中国、欧盟和美国在2025年人工智能治理重大事项的回顾总结。
中 国
一、内容标识、科技伦理等精细化立法加速落地,标准体系逐渐完善
全国人大常委会通过《2025年度立法工作计划》,调整了人工智能立法计划,未特别纳入制定人工智能领域统一部门法的计划,转而针对不同应用场景、更为具体的人工智能监管需求开展精细化立法工作。10月,全国人大常委会通过《网络安全法》修订案,新增第二十条,明确支持人工智能基础研究、算力基础设施建设,鼓励运用人工智能技术提升网络安全防护能力,同时要求完善伦理规范与风险监测,为人工智能发展划定安全红线。
3月,国家网信办发布《人工智能生成合成内容标识办法》,明确要求对AI生成内容实施显式与隐式标识,详细规定了生成式AI服务提供者、网络信息内容传播服务提供者、互联网应用程序分发平台以及用户在生成合成内容制作、传播各环节应履行的标识义务,并配套发布了强制性国标,对各种模态生成内容的显式及隐式标识方法提供了明确指引。
8月,工信部公开征求《人工智能科技伦理管理服务办法(试行)》意见,在此前《科技伦理审查办法》的基础上,针对人工智能领域细化伦理审查标准,并且将人机融合系统、舆论引导等高风险领域纳入强制性伦理审查范围。12月,网信办发布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,针对陪伴型AI服务建立“告知义务+情感保护+安全能力”的监管标准,强制要求明确告知用户互动性质、禁止以替代社会交往为设计目标、针对未成年人及易感人群强制要求添加防沉迷与干预机制,并规定心理健康保护等安全能力要求。
2025年,中国人工智能应用安全标准体系不断完善,国家标准委全年发布27项相关国家标准,覆盖AI研发、训练及运营的全生命周期。同时,人工智能行业标准化工作持续推进,多个标准通过审查或在研。重点标准包括针对AI生成内容的显隐式标识方法、生成式人工智能训练数据安全规范及服务安全要求,以及安全应急响应指南和人工智能安全治理框架2.0版。此外,针对未成年人使用生成式人工智能服务的安全指引和伦理规范也陆续出台,全面推动AI应用的安全合规和健康发展。
二、算法与大模型备案规模持续扩容,人工智能监管执法专项行动与常态化治理相结合
对于具有舆论属性和社会动员能力的生成式人工智能服务,我国已建立算法备案、大模型备案双备案机制。对于算法备案,自2022年8月起截至2025年12月31日,国家网信办累计已发布了14批深度合成类算法备案清单;对于大模型备案,自2024年各地网信办开放受理生成式人工智能服务备案以来,截至2025年底,全国生成式人工智能服务备案总计已超700项、登记应用超400项,北京、上海、广东、浙江四地占比过半。网信办已就大模型、算法备案制度进行监管执法。广东、天津等多地网信办常态化排查,多次发现并处理未经备案提供AI服务的主体;上海网信办对高风险未登记应用实施约谈与行政处罚;江苏网信办联合工信部门封堵AI风险域名等。
针对人工智能负面影响,2025年,中央网信办先后启动"清朗·网络平台算法典型问题治理"和"清朗·整治AI技术滥用"两大全国性专项行动,形成源头治理与内容管控的全链条监管闭环。算法治理方面,督促主流平台优化推荐机制,在透明度提升、"信息茧房"破除、用户赋权等方面取得成效;AI技术滥用整治方面,分两阶段清理违规AI应用3500余款、违法违规信息96万余条,重点打击未备案服务、非法训练语料、缺失内容标识及AIGC谣言、色情、假冒等突出问题。
地方监管体系同步常态化运行,北京、上海、天津、江苏、广东等地通过群众举报、企业自查、高风险领域重点核查等多元手段,针对医疗、金融、教育及未成年人保护等敏感场景开展专项督导与风险测试,公示典型案例强化警示效应。
三、2025年人工智能司法实践进展:典型案例构建合规框架,技术演进催生新型数据侵权挑战
2025年,全国涉人工智能案件数量持续增长,案件类型主要集中在知识产权和人格权侵权诉讼。北京互联网法院发布的八起典型案例系统回应了AI生成内容权属及人格权保护等核心法律问题,入选最高人民法院和国家网信办的权威案例库。
此外,法院在前沿领域案件中不断通过判例填补立法空白,明确AI生成内容著作权归属、大模型服务提供者责任边界以及合规义务,逐步构建AI行业合规框架。“蝴蝶椅”案首次明确缺乏自然人独创性投入的AI内容不受著作权保护,AI幻觉侵权案确立大模型服务提供者履行显著风险提示与技术保护义务即可免责,“美杜莎”案与“奥特曼案”共同划定平台"通知—删除"责任边界。
随着人工智能技术的快速发展,2025年也迎来了AI智能体应用的元年,标志着AI从简单回答问题向复杂问题解决的转变。此类应用在带来便利的同时,也引发了新的法律风险,如数据采集过程中可能涉及违反网站协议和技术防护措施的侵权问题。主流AI智能体通过API自动抓取外部网站数据,可能违反Robots协议、用户协议或突破技术防护措施,存在显著侵权隐患。11月美国Amazon诉Perplexity案中,AI智能体即被指控非法访问及获取网站数据。随着OpenClaw等开源智能体工具爆火,未来中国的相关判例值得进一步追踪。
欧 盟
一、欧盟《人工智能法案》第一批规则已生效;针对高风险人工智能系统的规则即将生效
2025年2月2日,欧盟《人工智能法案》第一批规则生效,涵盖AI系统定义、AI素养要求、禁止性AI实践(如社会信用评分系统)。2025年8月2日,通用目的人工智能(“GPAI”)模型提供商相关义务生效。GPAI模型即以执行多种不同任务、适应多种不同用途的 AI 模型,例如 GPT、Claude、DeepSeek等大语言模型可能构成GPAI模型。欧盟《人工智能法案》要求GPAI模型提供商履行透明度、版权合规、安全保障义务;其中“构成系统性风险的最先进模型”需主动向欧盟人工智能办公室报备。此备案名单目前尚未公布。
在成员国层面,各个国家基于欧盟《人工智能法案》相继在国内推进立法转化。比如意大利是首个完成国内转化的成员国,在2025年,其国内的《人工智能法案》正式生效。此外,也有许多欧盟国家通过发布关于欧盟《人工智能法案》的监管指南的方式,推动人工智能监管,如荷兰、法国、德国、挪威等国家。
未来两年,欧盟《人工智能法案》的主要规定,即针对高风险人工智能系统的规则将陆续生效,涉及的系统包括用于特定敏感领域的独立高风险人工智能系统,如教育、就业招聘、执法、关键基础设施、生物识别等领域人工智能系统;以及嵌入式/产品类高风险人工智能系统,如医疗器械、汽车、航空器、机械设备、玩具等中的人工智能系统。建议可能涉及高风险人工智能系统的企业提前准备风险等级识别及合规工作。
二、人工智能配套指南和行为准则密集出台
为了配合欧盟《人工智能法案》的实施,欧盟委员会发布了多部监管指南用于解释法案中相对原则性的规定,包括:
关于人工智能定义的指南、禁止性人工智能的指南:对人工智能系统的定义及各判断要素进行逐一解释,并明确了排除情形。对禁止性人工智能的各主要类型进行逐一解释,明确了判断要素和例外情形,同步对豁免类别进行了说明。
关于通用目的人工智能提供者义务范围的指南:为运营商(包括提供商、下游提供商和部署方)在落实《人工智能法案》中GPAI模型相关义务提供了明确指引,包括何为GPAI模型、GPAI模型何时构成系统性风险、何种修改会使下游主体成为GPAI模型提供商、开源模型豁免情形、执法与过渡期安排。
此外,欧盟委员会还组织相关行业领域的专家和利益相关方,编写发布了关于通用目的人工智能的行为准则,用于作为GPAI模型合规的“安全港”工具,其本身并不具有强制效力,但企业如果签署遵守,可用于证明符合法案的要求。行为准则涵盖透明度(模型文档公开、用户告知)、版权(合规使用训练数据、标注侵权风险)、安全保障(系统性风险评估、网络安全义务)三章。截至目前已有Amazon、Google、OpenAI等26家企业签署,但尚无中国企业参与。欧盟委员会还将继续参照法案规则落地实施的时间点,发布其他方面的行为准则。
三、人工智能法案综合改革监管提案出台,执法层面向实用主义转变
尽管《人工智能法案》已经生效,但欧盟也在同步推进人工智能监管领域的改革,在特定领域为企业松绑。根据欧盟委员会在2025年11月19日发布的《关于简化人工智能统一规则实施的欧洲议会和理事会修订条例》(EU)2024/1689和(EU)2018/1139的提案,此项改革的内容主要涵盖:
提议对人工智能数据中心及“超级工厂”豁免强制性环境影响评估,以提升算力竞争力;
推迟高风险AI系统合规义务生效时间,如引入“Stop the Clock”规则,合规义务与监管准备度关键节点相关联,确保有标可依再执法,避免企业盲目猜测导致不必要的合规成本,这意味着高风险人工智能系统的合规截止日期实际已延长至2027年底或2028 年;
对中小企业放宽行政程序要求,简化技术文档要求,这意味着除小微企业外,中小型企业也有机会获得监管豁免;
重新分配AI素养义务,取消原法案对提供者和部署者的强制性、可执行的AI素养义务,转移为欧盟委员会和成员国的政策目标,由公共部门而非私营部门承担教育与培训责任;
取消高风险AI系统登记义务;
允许提供者和部署者在严格隐私保障措施下,例外处理特殊类别个人数据(如种族、健康数据等),用于偏见检测和纠正;
扩大人工智能办公室的监管权力;
促进监管沙盒创新,扩展监管沙盒和真实世界测试范围,为中小企业提供试错空间。
对此,欧盟及各成员国的数据保护监管机构和社会组织,均肯定了本次改革提案在鼓励创新、提升技术竞争力及为中小企业减负等方面的价值。然而,他们也对特定领域监管的弱化表达了审慎的反对意见,认为涉及透明度、个人数据保护规则的修改、推迟高风险规则生效、取消登记义务及AI素养义务等措施,可能会弱化对欧盟境内个人基本权利的保护。此外,他们还指出应当加强数据保护监管机构、人工智能办公室和市场监管机构之间的合作。目前该项改革未完全落地,后续走向仍然需要持续关注。
四、德国法院在代表性人工智能版权侵权案件中做出保护版权方的判决
2025年11月11日,德国慕尼黑第一地区法院就GEMA诉OpenAI侵权案作出重要裁判,回答了何种行为构成对原作品的复制和传播、如何判定AI训练是否存在版权保护例外等关键问题。该案中,GEMA起诉认为OpenAI未经授权将其管理的九首德国歌曲完整歌词纳入ChatGPT训练数据,用户通过简单提示词即可获取歌词输出,构成对原作品的侵犯。法院裁判中提到的关键要点包括:
AI模型参数中固定了歌词的可再现信息,通过简单提示词即可直接输出原歌词内容,因此模型“记忆”歌词构成复制;
人工智能的输出内容向不特定公众开放,用户可随时获取歌词输出,因此模型的输出行为构成公开提供;
被告无法援引“文本和数据挖掘”例外,因为该例外仅覆盖“数据分析所需的临时复制”,被告模型对歌词的长期记忆与再现超出该例外范围,且原告已通过权利保留的有效声明禁止此类数据处理活动。
五、执法仍聚焦数据训练、数据跨境等问题,深度伪造风险受到关注
目前欧盟《人工智能法案》处于合规准备期,尚无公开的执法案例或罚款决定。首批正式执法案例预计将在2026年8月2日欧盟委员会行使正式执法权后出现。2025年欧盟相关监管执法机构对人工智能领域的监管较之于此前有一定的延续性,例如仍然高度重视社交媒体平台企业利用个人数据进行人工智能训练的合规问题。经过一段时间的执法调查以及磋商,目前就人工智能训练合规问题监管机构与各头部企业正在趋于达成和解,且逐渐形成了较为明晰的监管指导意见。认为在满足合法利益三步测试原则的基础上,采取必要的保障措施(如为数据主体设置事前退出权、满足GDPR最低要求的公开声明等透明度要求等)可以继续使用平台内个人数据进行人工智能训练。同时,仍然有一些新近的执法案例的走向值得持续关注。例如LinkedIn将欧盟境内平台内用户数据用于人工智能训练,且涵盖的数据非常广泛,吸纳了自2003年以来的所有用户数据。对此,爱尔兰、荷兰、挪威等国家数据保护局发布警告,认为其未充分告知用户且可能涉及敏感数据,同时没有给用户提供充分的退出权利。如果按照此前欧盟监管执法机构对平台内数据进行人工智能训练的执法态度,LinkedIn可能也会面临整改。
对于中国企业而言,尤其需要注意数据跨境的合规问题。有中国大模型企业在2025年内在欧盟多个成员国面临跨国执法调查,主要原因是其在处理欧盟用户数据后跨境传输至中国,未采取必要的补充保障措施,且未在欧盟设立代表机构。
另外,欧盟执法机构目前对于人工智能深度伪造引发的非法内容在线传播损害儿童、妇女等弱势群体的情况采取零容忍态度,且对平台管理者也施加了严格的义务要求。比如X平台内被发现部分用户利用Grok编辑图片和视频,生成带有歧视和色情暴力的内容。欧盟委员会要求X平台提交涉及平台算法相关信息的材料,并采取措施阻止非法内容扩散和传播。英国政府也要求X平台必须加强平台安全维护,且明令在平台内利用人工智能深度伪造生成违规内容的用户将构成犯罪。
美 国
一、特朗普行政令为人工智能创新解绑
特朗普政府2025年1月上台后,先后发布三份关键行政令。其频繁的行政动作展现了联邦政府对AI监管方向的转变,从拜登政府试图推动的强监管、风险防范导向的政策,显著转向以创新为第一立场、以联邦为第一监管主体的趋势,重构美国监管框架。
1月,特朗普政府上台后即签署《消除美国在人工智能领域领导地位的障碍》行政令,成为AI监管行政执法的纲领性文件。该行政令直接撤销拜登政府多项AI相关的安全措施,如《关于安全、可靠和可信地开发和使用人工智能的行政命令》,命令联邦机构全面审查、修订或废除与拜登AI监管框架相关的所有政策、指令、法规和行动,明确将美国AI政策重心从审慎监管转向鼓励创新和减少监管障碍。这一行政令的签署为后续行政令奠定创新优先的基调,反映了特朗普政府对AI监管的核心理念,即轻监管、重创新,确保美国在全球AI领域的领导地位。
7月,特朗普政府发布《美国AI行动计划》,作为1月行政令的进一步细化落地方案,涵盖90余项联邦政策行动。
12月,特朗普政府签署《确保人工智能国家政策框架》行政令,聚焦美国监管碎片化的问题,也是对2025年州级AI立法快速增长的回应。特朗普政府在《大而美法案》中试图阻止各州对AI进行立法的尝试失败后,又以该行政令为工具,试图构建联邦优先的执法协调机制。该行政令指令司法部长成立AI诉讼工作组,挑战与联邦政策冲突的州级AI法律。还要求对州级AI法律进行评估,限制联邦资金向不配合联邦政策的州提供支持,推动联邦机构制定AI报告和披露标准,为未来统一联邦AI立法框架提供铺垫。该行政令是特朗普政府应对监管不统一的关键举措。
二、州级立法快速增长,加州成为人工智能前沿监管主阵地
2025年美国联邦层面仍未出台统一管理AI的全面性立法。自美国第119届国会以来,美国议员已向国会提出数百项涉人工智能的法案1,但仅少部分通过,且仅为特定领域的针对性条款,未形成覆盖AI全生命周期的统一监管框架。例如,2025年5月通过的《TAKE IT DOWN法案》,聚焦AI深度伪造危害的专项刑事与民事立法,明确未经同意制作、传播他人非自愿私密影像构成联邦刑事犯罪,并建立了网络服务平台的“通知-删除”机制。
与联邦立法的缺位形成鲜明对比,2025年美国州级AI立法则呈现出数量激增的特征。据统计,美国各州立法者在2025年一年内就提出了超过1000项AI相关法案,但仅有约十分之一最终通过并确立为正式法律。2包括加利福尼亚州、得克萨斯州、蒙大拿州在内的多个州均通过或推进针对性AI法案,覆盖高风险AI监管、透明度要求、消费者保护等核心领域。
作为州级AI立法的核心阵地,加利福尼亚州在2024至2025年间,有超过十部AI相关法律出台或生效,通过分领域、分场景的针对性监管路径,逐步搭建起覆盖全面的州级AI监管框架。其推进的多项标志性法案包括:
《前沿人工智能透明度法案》。该法案是美国首部针对前沿大模型的专项州级监管立法,适用于使用超过10^26浮点运算算力完成训练的前沿模型开发者,要求相关主体每年发布AI治理框架报告,全面披露模型治理架构、风险缓释措施等核心信息。该法案还授权加州总检察长单次违规最高可处100万美元罚款的权力,为报告模型安全风险的企业员工提供充分的法律保护。
《加州人工智能透明度法案》。该法案是加州针对生成式AI内容溯源的核心立法。法案规制对象为月活跃用户超100万的生成式AI系统运营方,要求运营方需在AI生成的图片、视频、音频内容中嵌入不可见的溯源披露标识,同时需向用户免费提供配套的AI生成内容检测工具。
《生成式AI训练数据透明度法案》。该法案聚焦生成式AI训练数据的合规披露义务,要求生成式AI模型开发主体需公开披露用于模型训练的数据集摘要信息,明确标注数据来源为专有数据或公开数据,且相关披露信息需向公众开放、可便捷获取。
《陪伴型聊天机器人安全法案》。该法案是全美首部针对陪伴型AI聊天机器人的专项监管立法,核心聚焦未成年人保护与用户知情权保障。法案要求聊天机器人需具备识别并响应用户自残相关表达的能力、在交互过程中需向用户清晰披露对话对象为AI生成,同时针对未成年人用户设置了色情低俗内容限制措施。
三、美国法院在使用版权作品进行数据训练、AI幻觉等案例中作出有利于AI服务提供者的判例
与上述德国法院的判例不同,2025年,美国法院通过多起判例明确AI在训练过程中使用版权内容构成“合理使用”。
在Kadrey诉Meta案中,原告指控Meta未经授权非法下载数百万本受版权保护的书籍,用于训练Llama模型。Meta则辩称,其使用具有“高度转换性”,并非复制原作品,且已采用相关技术防止模型复述原文。加州北区联邦地区法院基于美国版权法“合理使用”四要素认定Meta使用受版权保护的书籍训练其大语言模型的行为属于版权法中的合理使用。
与该案相类似,在Bartz诉Anthropic案中,原告指控Anthropic非法复制数千本受版权保护的文学书籍,用于训练其Claude大语言模型。加州北区联邦地区法院虽认定Anthropic使用盗版书籍副本的行为侵犯了原告的权利,但其将正版书籍用于训练大语言模型的行为极具变革性,属于版权法下的转换性使用,构成合理使用。
在AI生成内容责任方面,佐治亚州法院在Walters诉OpenAI案中驳回原告对ChatGPT“幻觉”内容的诽谤索赔请求。该案中,原告指控OpenAI旗下ChatGPT生成的“幻觉”内容构成诽谤,指出ChatGPT虚构了原告Walters涉嫌挪用公益组织资金的不实刑事指控。OpenAI则辩称,其已在ChatGPT产品中向用户发出多重关于模型可能生成幻觉的警示,且已采取行业领先的技术措施降低模型幻觉风险,认为涉案内容不具备法律意义上的诽谤性。法院最终认定OpenAI就ChatGPT生成的虚假“幻觉”内容不承担诽谤责任,驳回了原告的全部索赔请求,为生成式AI平台的诽谤责任划定了豁免边界。
上述各个法域关于人工智能的立法和实践还在不断变化的过程中,2026年也将成为相关技术和法律实践变化的一个关键节点。我们将持续关注该领域的热点及发展趋势。
1. 参见: https://www.congress.gov/crs-product/R48555
2. 参见: https://sezarroverseas.com/us-ai-regulation-2025-state-laws-compliance/
声 明
《君合法律评论》所刊登的文章仅代表作者本人观点,不得视为君合律师事务所或其律师出具的正式法律意见或建议。如需转载或引用该等文章的任何内容,请注明出处。未经本所书面同意,不得转载或使用该等文章中包含的任何图片或影像。如您有意就相关议题进一步交流或探讨,欢迎与本所联系。