北京电视台《第三调解室》合作单位--北京伊志律师事务所

普法常识

北京房产继承律师|Sora等视频生成模型的法律风险及监管应对

来源: 北京伊志律师事务所 作者: 北京伊志律师事务所 2024-08-06 09:40:51 319
  2月16日,OpenAI公司发布首个文生视频模型Sora,引发广泛关注。和ChatGPT生成文本、图片等信息不同,Sora可以根据用户指令生成几乎以假乱真的短视频,且高分辨率的画质、惊艳的细节令人震惊。这成为人工智能技术发展的又一里程碑,也意味着人类在通往通用型人工智能时代的路上迈出了关键一步。      据OpenAI公司介绍,Sora视频生成技术可以广泛应用于内容创作领域,产生人工智能生成内容(AIGC),未来也可能出现类似Sora的其他视频生成模型。在此背景下,有必要认真思考Sora背后的法律风险,完善相关技术的监管规则。      Sora应用的法律风险隐忧      虽然Sora的出现并不意味着强人工智能时代到来,但Sora的应用已经引发了许多法律风险上的隐忧。首先,深度伪造是Sora在视频内容生成领域面临的首要风险。在当前的互联网环境中,深度伪造现象普遍存在,这对用户的信息甄别能力提出了很大挑战。Sora极大地降低了视频生成的门槛和成本,使用者可以快速制作任何视频并在互联网平台上迅速传播。一旦该模型被大规模应用于现实世界,将进一步模糊甚至消弭虚拟和现实之间的界限,增加深度伪造的风险。利用深度伪造技术,行为人可以实施各类严重的违法行为,包括但不限于侵犯他人肖像权、侮辱诽谤、制作淫秽色情信息或物品、宣扬极端暴力恐怖信息、宣扬仇恨犯罪相关信息,甚至引发社会骚乱、危害国家安全。此外,深度伪造还可能进一步助长电信网络诈骗犯罪。      其次,由于Sora的出现,使得人工智能虚实相生、以假乱真、混淆视听的技术能力大幅提高,其大规模应用于AIGC领域将进一步吸引公众注意力,可能挑战或破坏现有社会制度和公众的共识性认知。Sora模型可能会被应用到数字经济的各个领域,如游戏、元宇宙和电影制作领域,这既提升了生产力,也让投机者有机可乘。例如,针对元宇宙建设领域的投机行为,目前还存在一定监管漏洞和风险。Sora的出现可能将进一步加快相关应用落地,使相关领域的风险显著增加。若各类虚假信息在各个应用领域广泛传播,将极大增加人类社会的整体风险。      最后,传统的知识产权法理逻辑在人工智能技术创新面前可能遭遇新一轮的冲击。Sora视频训练所使用的素材大多是从网络上获取的既有视频,这可能涉及知识产权问题和侵权问题。OpenAI在以前也遭遇过类似诉讼。在人工智能实践所引起的“创造性破坏”面前,如何重新定位训练数据及生成视频的著作权侵权问题,为技术创新排除数据训练、数据利用等方面的不合理障碍,亟待法学理论和实践认真研究。      既有监管规则的整合与针对性完善      首先,从现实风险看,目前,Sora模型的应用所引起的风险并非新型风险,而是对既有法律风险的放大。针对相关风险,我国已经出台了一系列较为完善的监管规则。例如,针对生成式人工智能,国家网信办等七个部门在2023年7月联合发布《生成式人工智能服务管理暂行办法》,为其设定了监管规则。针对深度合成等行为,我国在2022年11月发布的《互联网信息服务深度合成管理规定》强调,深度合成服务提供者和使用者不得利用深度合成服务制作、复制、发布、传播虚假新闻信息,使用敏感个人信息时应取得个人的单独同意,并为深度合成服务提供者设置了报告义务和标识义务。此前,2019年11月发布的《网络音视频信息服务管理规定》亦要求,网络音视频信息服务提供者和使用者不得利用基于深度学习、虚拟现实等新技术新应用制作、发布、传播虚假新闻信息,并对网络音视频信息服务提供者设置了标识义务、辟谣和备案义务。此外,无论在信息真实性、个人信息保护、肖像权保护方面,抑或反恐怖主义和国家安全等方面,我国均有相应法律规则。刑法领域也有针对虚假信息类犯罪、暴恐类犯罪和危害国家安全犯罪的相关法律规定。因此,无需针对Sora模型的应用风险过分设置冗余规则。      其次,监管部门有必要针对性地完善现有监管规则,以实现如下两方面目标:一方面,监管规则要对行业发展起到激励与指引作用,推动我国在相关领域取得自主性的技术突破,通过相关技术的落地推动我国人工智能产业发展。另一方面,需进一步围绕Sora等人工智能模型的深度伪造风险查缺补漏。考虑到我国的实际发展需求,相较于制定严格的规则以防范风险,更重要的是为行业出台激励性和指引性规定,降低从业者的合规风险。通过加强事前沟通,为科技企业试错留下足够空间,尽可能促进数据要素的合理流通利用,消除监管与实践之间的观念隔阂及壁垒,营造更好的创新环境,助力我国创新能力的提升。在此基础上,应鼓励科技企业完善事前伦理规则建设,探索事前监管及利益相关者的多元共治模式,并探索进一步完善《生成式人工智能服务管理暂行办法》,针对视频生成模型的风险查缺补漏。例如,我国创业者使用OpenAI作为后端技术处理工具,可能涉及我国数据大量传送到国外的数据跨境风险及合规问题。对此,应在规则指引层面严格防范相关风险扩散,必要时应采取技术措施和其他必要措施阻断数据跨境传播。此外,针对深度伪造现象可能带来的危害国家安全犯罪和网络诈骗犯罪等问题,还需加强理论与实务研究,提升刑事司法层面的反应能力。      最后,基于人工智能领域法律风险可能弥散问题,形成针对人工智能产业治理的整体性规制方案。人工智能立法工作已被提上日程,如何理顺数字空间中代码与法律的关系,形成多元共治的基本框架,如何明确个体的数字权利与法律保护的边界,回应人工智能行业的技术创新在代码、算法、算力、数据及内容监管等方面的风险,如何针对人工智能行业形成统一的事前监管,确保法律监管与行业创新之间的良性互动,均要求通过高规格立法方式来形成整体性理解。这不仅将有助于充分回应视频生成模型的法律风险,也将纠正当前监管实践中的诸多盲区与误区,为新质生产力的发展奠定法律基石。      (作者单位:大连海事大学法学院)伊志律师事务所位于北京市朝阳区朝外大街乙6号朝外SOHO-C座1209,优越的地理位置,便利的交通条件,安静、专业的办公环境为需求提供方便。 电话:010-84493343 微信:18401228075 电话:18401228075

客服