当“并不存在的表演”成为现实——对话北京市文化娱乐法学会导演行业工作委员会崔亮

来源:北京市文化娱乐法学会 发布时间:2026-03-30

【人物档案】

崔亮,北京市文化娱乐法学会导演行业工作委员会主任委员,电视剧导演专业委员会会员,资深影视导演,AI+真人融合短剧领域的先行实践者。近年来,其主导的《镜夜沉》《子不语·绝非如此》《厄愿》及《十宗罪》系列(《缚影》《重塑》)等AI+真人短剧项目,探索数字生成内容与真人表演的创作边界。作为深耕影视行业多年的创作者,崔亮导演既是AI技术赋能影视生产的受益者,也是AI深度伪造侵权乱象的亲历者与观察者。在2026年3月24日“AI深度伪造侵权”跨界对话研讨会召开之际,《娱乐法内参》特邀崔亮导演就AI技术对影视生态的冲击、肖像权与声音权的法律边界,以及行业自律规则的构建等议题展开深度对话。

【访谈实录】

《娱乐法内参》:崔导您好。作为导演工委会的负责人,您近期在筹备的《镜夜沉》《子不语·绝非如此》等项目都涉及AI技术与真人表演的融合创作。能否先请您谈谈,当AI从“工具”转变为“合作者”,导演在创作现场最直观的感受是什么?这种技术变革是否正在重塑影视生产的基本逻辑?

崔亮:

这是一个非常本质的问题。在《镜夜沉》的筹备过程中,我们第一次实现了“数字场景”与“真人演员”在同一条时间线上的无缝衔接。1924年天津解放北路的街景、志怪幻境中的“魂境”场景,这些过去需要数周搭建或后期合成的视觉元素,现在通过AI生成技术可以在几天内完成可视化预演。这种效率革命是前所未有的。

但更深层的变革在于创作主体的模糊化。过去我们讲“导演中心制”,强调的是人的创意与情感表达;现在当AI开始承担场景建构、逻辑筛查甚至情节生成的工作时,法律意义上的“创作主体”究竟该如何界定?在《十宗罪·重塑》中,我们用AI辅助完成犯罪心理的可视化呈现,这些画面的版权归属是技术提供方、影视公司还是导演本人?这种“源头版权”的灰色地带,是当前AI影视创作最大的法律隐忧。

我认为AI对影视行业的冲击已经从工具层深入到了权利层和伦理层。我们导演群体正在经历从“纯手工创作”到“人机协同”的阵痛期。一方面,我们不得不拥抱AI带来的效率红利;另一方面,每一次使用都如履薄冰——当AI生成的民国人物形象“神似”某位老艺术家时,是否触发肖像权的延伸保护?当我们用AI参考天津博物馆老照片进行“风格迁移”时,这种“二次创作”是否侵犯原馆藏影像的版权?这些困惑不是理论层面的,而是每天发生在片场和后期机房的现实焦虑。

《娱乐法内参》:您提到“神似”与“风格迁移”的法律风险,这涉及AI生成内容与既有权利客体的“实质性相似”认定。就在几天前(3月20日),北京互联网法院刚宣判了一起AI换脸短剧侵权案,法院认定制作方和播出方均构成肖像权侵权。作为一线创作者,您如何看待这起判决对行业的警示意义?

崔亮:

这起判决具有标杆性意义。法院明确了一个关键原则:肖像的可识别性并不要求侵权形象与本人完全一致,只要一般公众或特定群体能够识别,即可认定使用了特定自然人的肖像。被告A公司抗辩称涉案形象系通过AI生成、未输入与原告相关指令,属于“撞脸”,但法院认为其未能复现创作过程,需承担举证不能的不利后果。

这个判决戳破了“技术巧合”的遮羞布。在短剧行业,AI换脸已经成为一种“搭便车”的乱象——有的制作方为了博眼球,用AI换脸将流量明星“植入”预告片;有的账号用AI生成影视片段进行二次创作,甚至伪造演员“塌房”视频。这些行为不仅侵犯了创作者的合法权益,更扰乱了行业秩序。

作为导演,我特别关注判决中关于平台责任的认定。法院认为,B公司作为播出方,在涉案短剧时长较短、争议形象具有一定知名度和辨识度的情况下,未履行合理审查义务即予以发布,应承担相应侵权责任。这意味着“避风港原则”在AI深度伪造领域正在受到限制。传统上,平台可以“接到通知再删除”来免责,但AI换脸视频的传播速度是以小时计的,等权利人发现再通知,损害已经不可逆。这起判决实际上提高了平台的“红旗原则”适用标准——当侵权事实像红旗一样飘扬时,平台不能装瞎。

这对我们制片方和演员都是重大利好。如果《镜夜沉》的某位演员被第三方用AI换脸植入到不良视频中,我们至少有了快速固定证据和追究平台责任的法律依据。

《娱乐法内参》:除了视觉层面的AI换脸,声音克隆(Voice Cloning)技术对配音行业的冲击似乎更为隐蔽和深远。今年3月,包括729声工场、吕艳婷(《哪吒》配音)在内的数十位配音演员集体发声维权。作为经常使用声音元素的导演,您如何看待“声音偷猎”现象?在法律层面,声音权益的保护边界在哪里?

崔亮:

“声音偷猎”比“明抢”更可怕,因为它具有隐蔽性和技术性。相比AI换脸的直观可辨,声音克隆的识别难度更高。2024年4月23日,北京互联网法院宣判了全国首例AI生成声音人格权侵权案,明确认定在具备可识别性的前提下,自然人声音权益的保护范围可及于AI生成声音。但现实中,配音演员的维权仍然面临“发现难、取证难、追责难”的困境。

我了解到一个典型案例:配音演员武扬在今年6月发现某餐饮企业宣传片中使用了AI克隆的他的声音,侵权方承认事实但仅愿赔偿5000元且拒绝道歉,试图以“第三方公司提供”为由推卸责任。另一个案例中,配音演员浩洋陷入了“自证循环”——侵权方要求“怎么能证明这个声音是您呢?这种维权成本的极度不对等,正在摧毁配音行业的生态。

从导演创作的角度,声音是叙事的重要维度。在《厄愿》等项目中,我们试图尝试用AI合成“原创声音”,但很快就面临法律风险:如果AI合成的声音意外地与某位配音演员的音色高度相似,“可识别性”的司法认定标准是什么?是音色相似度超过70%?还是一般公众产生混淆?目前司法实践中的“可识别性”标准仍较为抽象,需要更细化的技术鉴定规范。

我认为,声音权益保护应当建立分级授权体系。对于演员、配音演员的声音,不能简单地“一揽子卖断”,而应区分“基础使用权-AI训练权-衍生开发权”。未经授权的声音AI化,无论是否标注“非商用”、“二创”,均属于侵权行为。配音演员谷江山说得好:“本人不授权任何AI使用我声音进行模型训练以及AI作品。法庭见。这种明确的权利宣示应当成为行业标配。

《娱乐法内参》:您刚才提到平台责任的“红旗原则”与“避风港原则”的博弈。在AI内容泛滥的今天,平台究竟应当承担怎样的审查义务?是形式审查还是实质审查?技术提供方、内容制作方、平台分发方的责任链条该如何划分?

崔亮:

这正是当前法律适用的模糊地带。传统《信息网络传播权保护条例》确立的“避风港原则”(即“接到通知,立即删除,即可免责”)在AI时代面临失效风险。AI生成内容的侵权认定需要专业知识,普通用户很难判断一个视频是否使用了深度伪造技术。

我认为应当建立“过错推定+技术监测”的双重标准。平台不能以“技术中立”为由放任侵权内容扩散。参考3月20日判决的思路,当AI换脸内容具有明显的商业利用目的、涉及知名公众人物时,平台应当履行合理注意义务。这种义务包括但不限于:要求上传者标注“AI生成”(2025年9月1日施行的《人工智能生成合成内容标识办法》已对此作出规定)、建立AI内容的智能识别机制、对高风险账号进行人工复核。

关于责任链条,我的观点是“谁受益,谁担责;谁控制,谁负责”。A公司提供AI工具,如果其工具主要用于生成侵权内容,应当承担帮助侵权责任;B公司作为制作方,是侵权内容的直接受益者,承担直接责任;C平台作为分发方,如果未尽审查义务,承担连带责任。在AI影视侵权中,不能简单适用“避风港原则”让平台全身而退,也不能让平台承担过重的实质审查义务而阻碍技术创新。关键在于“红旗原则”的触发条件——当侵权事实显而易见时,平台必须采取行动。

我特别想呼吁建立“诉前禁令+快速鉴定”的绿色通道。面对AI侵权,等走完诉讼程序,热度早已过去。我们需要像知识产权保护中的“诉前禁令”一样,允许权利人在证据确凿的情况下,快速要求平台下架内容,并建立专门的AI生成内容鉴定机构,解决“自证我是我”的困境。

《娱乐法内参》:在《镜夜沉》等项目中,您提到了AI对历史场景的还原与非遗元素(如合真药香)的视觉重构。这涉及更复杂的版权问题:AI学习并重构传统技艺的视觉呈现,生成的创新配方或视觉设计,权利归属应属于技术提供方、影视公司还是非遗传承人?如何平衡AI训练数据的版权豁免与权利人保护?

崔亮:

这是传统知识产权体系面临的新挑战。AI训练过程中对海量数据的学习,是否构成“合理使用”?目前《中华人民共和国著作权法》第二十四条的合理使用条款并未明确涵盖AI训练。在《镜夜沉》中,我们用AI参考天津博物馆老照片进行“风格迁移”,如果严格适用法律,这种“二次创作”是否需要获得原馆藏影像的授权?

我认为应当区分“风格模仿”与“侵权复制”。如果AI仅仅是学习了历史照片的构图风格、光影特征,但并未复制具体像素,这属于创作中的“思想”范畴,不应受版权限制;但如果AI直接复制了具有独创性的具体表达(如特定角度、特殊处理的历史照片),则构成侵权。司法实践中需要建立“实质性相似”的细化标准。

对于非遗与AI的交叉地带,情况更为复杂。当AI学习并重构了合真药香等传统非遗技艺的视觉呈现,生成的创新配方,其权利归属应当考虑来源披露与利益分享机制。非遗传承人对其传统技艺享有文化权利,影视公司享有影视化呈现的权利,技术提供方享有算法权利。我们应当建立“三方协议”模式,明确AI生成内容涉及传统知识时的利益分配规则。

更深层的思考是:如果AI生成的场景与某真实犯罪现场相似(如《十宗罪·缚影》中的情况),是否涉及“对真实事件的非法利用”?这不仅是版权问题,还涉及公共利益益与隐私保护的平衡。AI的“随机性生成”与人类的“指导性创作”如何界定比例?如果AI生成的犯罪现场可视化画面被他人直接使用,我们如何证明其具有“独创性”从而获得版权保护?这些问题都需要在《影视行业AI应用合规指引》中予以明确。

《娱乐法内参》:面对AI侵权的“行业性危机”,您提出了建立“三重防火墙”的构想。能否详细阐述这一规则体系的内涵?导演工委会在推进行业自律方面有哪些具体计划?

崔亮:

“三重防火墙”是基于创作实践提出的行业自治方案,旨在填补法律滞后的空白。

第一重是创作溯源机制。我们能否建立AI生成内容的“数字水印”强制标准?就像《子不语·绝非如此》中,我们将在每个AI生成片段都嵌入不可见的溯源标识,明确标注训练数据来源、生成参数、修改记录。2025年9月1日起施行的《人工智能生成合成内容标识办法》要求AI内容添加数字水印,这正是重要进步。这不仅是对权利人的尊重,也是未来维权的关键证据。

第二重是分级授权体系。对于演员、配音演员的声音、肖像,应当建立“基础使用权-AI训练权-衍生开发权”的分级授权模式,避免“一揽子卖断”导致的权利失衡。演员签约时应当明确“反AI训练条款”,禁止片方在未经授权的情况下将演员的表演数据用于AI模型训练。

第三重是平台审查义务的明确。参考3月20日判决中法院对播出方“未尽合理审查义务”的认定,我们需要明确:短剧平台、视频平台在AI内容分发中的“合理注意义务”边界在哪里?对于AI换脸、声音克隆等高风险内容,平台应当实行“先审后发”或“强标识”制度。

导演工委会愿意与学会、法律界共同推进《影视行业AI应用合规指引》的制定。这份指引将涵盖:AI辅助创作的版权归属规则、深度伪造的合法边界、演员“数字分身”的权利保护,以及侵权维权的快速通道。我们希望建立行业“黑名单”制度,对恶意使用AI换脸、声音克隆的制作者进行行业抵制。

《娱乐法内参》:最后想请您谈谈,在AI技术势不可挡的今天,导演的核心价值何在?未来影视行业的人机协同模式应当是怎样的?您对《娱乐法内参》的读者特别是年轻创作者有何建议?

崔亮:

我始终认为,AI不是影视创作的“替代品”,而是“赋能工具”。未来的影视行业,必然是“人机协同”的创作模式——AI负责高效完成场景还原、特效初剪、逻辑筛查等技术性工作,创作者则聚焦情感表达、故事内核、价值引领等核心创意。

导演的核心价值在于“审美判断”与“情感共鸣”。AI可以生成无数种画面方案,但选择哪一种最能打动人心,这是机器无法替代的。在《镜夜沉》的创作中,AI生成了1924年天津街景的多种版本,但最终选择哪一种色调、哪一种构图来呈现“民国奇幻”的氛围,依赖于导演的历史素养和审美直觉。

对于年轻创作者,我有三点建议:

第一,拥抱技术但保持警惕。要学习使用AI工具提升效率,但必须建立法律红线意识。在使用AI生成内容时,务必保留创作过程证据,确保训练数据来源合法,避免“无意识侵权”。

第二,重视“数字分身”的权利保护。无论是演员、导演还是配音演员,都应当在合同中明确AI训练授权条款。一次录音、一次表演,不等于终身授权AI使用。

第三,推动行业共治。AI侵权不是个体问题,而是行业生态问题。年轻创作者应当积极参与行业自律组织,推动建立AI创作的伦理规范。只有让技术在规则框架内运行,才能让AI真正服务于创作,而不是成为侵权的“遮羞布”。

我们今天聚集在此,不是为了阻挡技术浪潮,而是为了在浪潮中划定航道。让《镜夜沉》《子不语》这样的实验性作品,能在明确的规则下探索更多可能;让创作者的合法权益得到保障;让影视行业能在健康的环境中持续发展。这是导演工委会的使命,也是整个行业的共同期待。

【结语】

当“并不存在的表演”成为现实,当数字生成内容与真人表演的边界日益模糊,影视行业正站在技术变革与法律规制的十字路口。崔亮导演及其团队在实践中遭遇的困惑,正是整个行业面临的集体焦虑。从3月20日北京互联网法院对AI换脸短剧的侵权认定,到配音演员集体对“声音偷猎”的抵制,司法实践与行业自律正在共同构建AI时代的规则底座。

正如崔亮所言,AI技术对影视行业的冲击已从“工具层”深入到“权利层”和“伦理层”。只有在创新与规范之间找到平衡,建立创作溯源、分级授权、平台尽责的“三重防火墙”,才能让AI真正成为影视创作的“赋能工具”而非“侵权遮羞布”。《娱乐法内参》将持续关注AI与影视法治的前沿议题,期待与行业同仁共同推进《影视行业AI应用合规指引》的制定,为技术浪潮中的影视创作划定清晰的法律航道。