北京电视台《第三调解室》合作单位--北京伊志律师事务所

普法常识

北京房产继承律师|生成式人工智能的风险与规制

来源: 北京伊志律师事务所 作者: 北京伊志律师事务所 2024-08-06 09:38:23 1951
  近日,国家网信办、国家发展改革委等部门联合出台《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》),进一步促进生成式人工智能技术健康发展和规范应用,维护国家安全、社会公共利益以及公民、法人和其他组织的合法权益,于2023年8月15日起施行。作为针对生成式人工智能的首部专门立法,《暂行办法》为中国发展生成式人工智能服务设定了底线,为全球人工智能治理开辟了新道路。     以ChatGPT为代表的生成式人工智能的工作原理及潜在风险     2022年底,美国公司OpenAI推出的ChatGPT以出色的语言理解、语言生成以及知识推理能力吸引了全球目光,一经推出,两个月时间用户量就高达一亿人次,这引起了世界各国对生成式人工智能的高度关注。生成式人工智能包含生成式对抗网络(GAN)和生成式预训练转化器(GPT)两种训练模式,前者在预设模型下由生成和判别两套子系统共同实现,后者通过对大量公开数据进行学习生成文本,ChatGPT主要依靠后者实现。     ChatGPT的生成机制分为以下四个阶段:一是通过数据“喂养”学习人类文本语言模型,并将生成文本与输入语料的文本内容比对,以锻炼后续文本生成能力。二是通过输入特定问题与期待答案来优化学习模型,进行自我监管学习,形成符合人类期待的输出习惯。三是收集ChatGPT同一问题生成的多个内容并进行优位排序,训练出符合人类预期的奖励模型。四是优化奖励模型,让ChatGPT在学习和自我反馈中优化产出结果。这种工作原理,使得以ChatGPT为代表的生成式人工智能存在一定的潜在风险,总体来看主要有以下几个方面:     伦理风险。人工智能的算法透明性与可解释性被长期诟病,算法本身的“理性思维”难免与社会伦理发生冲突。其一,算法歧视。无论是对比式人工智能还是生成式人工智能,均依赖于人类算法设计和学习数据输入,然而算法设计和学习数据筛选本身都包含设计者的价值判断,在数据源受到污染时输出结果也会产生偏差。此前,OpenAI公司开发的GPT-3就出现了带有种族歧视性的输出内容。其二,生成失范信息。如果应用程序使用者刻意诱导人工智能输出诸如虚假等失范信息,有可能会导致人工智能违背预设准则而输出不良导向的内容。国外就曾发生用户诱导ChatGPT给出违反OpenAI准则的答案。其三,挑战学术、艺术创作伦理规范。美国有调查显示,超过50%的学生使用过ChatGPT撰写论文,近90%的学生用ChatGPT完成作业,这一方面冲击学术伦理规范,另一方面人工智能对现有作品的挖掘存在超越“合理使用”范围、侵犯著作权嫌疑。其四,反作用于人类社会。ChatGPT通过对话实现需求收集和内容输出,但无论提问方式和输出内容如何,都会在交互中对使用者产生一定引导性,这意味着人工智能输出内容会影响人类决策,对人类社会产生反作用力。     数据与隐私安全风险。系统训练生成式人工智能的过程中需要输入大量数据,这些数据面临来源合规和使用合规两方面的风险。在数据收集阶段,收集个人信息应当取得信息主体的同意,收集开放渠道的信息必须在“合理使用”范围内,否则有可能违反个人信息保护法、数据安全法等相关法律法规的规定。在数据使用阶段,主要存在数据泄露、数据主体权利行使困难两方面困境。用户在使用ChatGPT等生成式人工智能时,可能会向模型输入包括个人信息、商业秘密等内容,若输入内容被用于人工智能迭代训练,在其他用户命令人工智能提供信息时,它可能会将前用户输入的信息全盘托出。     归责难题。在技术中立背景下,如何对人工智能因价值缺失、设计缺陷等而产生的侵权损害进行归责存在较大讨论空间。ChatGPT的《使用条款》第三条第一款明确了输出的内容权利归属于用户,并要求用户对内容负责。但很多情况下,用户无从判断输出内容的出处和真伪,在不具主观过错时根据过错责任要求用户承担侵权责任,显然不妥。如果对人工智能问责,就必须在算法漏洞与实际损害结果之间建立直接因果关系。一方面,ChatGPT只有在用户触发时才作出回应,这意味着有时算法漏洞与损害结果之间无法形成法律上的因果关系,仅是诸多侵害原因的一种。另一方面,ChatGPT算法极为复杂,通过神经网络学习训练内容,并基于各种高维变量之间的关系作出决定,这一情形下可能任何人都无法预测算法的决策思路,也无法复现运算过程。这也使得实践中难以评估其中的因果关系。此外,ChatGPT的语料库还会受到前用户输入信息的影响。由于人工智能在交互中难以判断用户输入信息的真伪性,有时会将错误信息作为学习数据,导致输出内容违法,此时侵权的源头则指向前用户,加大了归责难度。     生成式人工智能的规制     ChatGPT的发布引发了全球对生成式人工智能的关注,许多国家和地区也意识到其中的风险,开始规制或限制相关应用。例如,欧盟将ChatGPT等生成式人工智能列入高风险人工智能清单,意大利等国一度以保护隐私为由在全国范围内禁止使用ChatGPT。我国发布的《暂行办法》则较为全面、系统地为生成式人工智能的应用设定了规制框架,亮点主要有以下几个方面:     限定规制范围,为技术发展和应用留足探索空间。此前发布的《暂行办法》征求意见稿将“研发、利用生成式人工智能产品,面向中华人民共和国境内公众提供服务”纳入规制范围,这被认为可能对生成式人工智能技术造成不当限制,正式发布后,《暂行办法》将规制范围调整为“利用生成式人工智能技术向中华人民共和国境内公众提供生成文本、图片、音频、视频等内容的服务”,从而排除了它对研发等一般不会直接对国家安全、社会公共利益和他人合法权益造成风险的环节的适用,也排除了“利用生成式人工智能服务从事新闻出版、影视制作、文艺创作等活动”和“行业组织、企业、教育和科研机构、公共文化机构、有关专业机构等研发、应用生成式人工智能技术,未向境内公众提供生成式人工智能服务”的情形。这些调整为目前处于快速发展、迭代中的生成式人工智能技术预留了探索空间。     设定合规标准,避免可能产生的伦理和法律风险。对于生成式人工智能可能产生的风险,《暂行办法》要求生成式人工智能服务的提供者和使用者遵守法律、行政法规,尊重社会公德和伦理道德,尤其要做到:其一,不得生成虚假有害信息等法律、行政法规禁止的内容;其二,采取有效措施防止产生民族、信仰、国别、地域、性别、年龄、职业、健康等歧视;其三,不得利用算法、数据、平台等优势,实施垄断和不正当竞争行为;其四,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益;其五,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性。上述规定基本涵盖了生成式人工智能技术的发展可能带来的风险,具有针对性和前瞻性。     坚持分类分级,合理分配监管资源。今年6月欧洲通过的《人工智能法案》将人工智能应用按风险等级分为不可接受风险、高风险、有限风险和极小风险四类,并分别建立相应风险防范机制。《暂行办法》也采取分级分类思路,重点关注生成式人工智能的内容风险。例如,相比之前的征求意见稿,《暂行办法》将需要“按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续”的范围限定为“具有舆论属性或者社会动员能力的生成式人工智能服务”,并要求“国家有关主管部门针对生成式人工智能技术特点及其在有关行业和领域的服务应用,完善与创新发展相适应的科学监管方式,制定相应的分类分级监管规则或者指引”。这些规定有利于针对不同领域、不同类型、不同应用场景下的生成式人工智能可能带来的风险做出不同的应对,合理分配有限的监管资源。     《暂行办法》较好地回应了生成式人工智能带来的挑战,未来仍有必要及时根据技术进步和产业发展进行调整和细化:其一,在分类分级总体思路下,及时出台适用不同行业、不同领域的规则和指引,提升规则的针对性和可操作性。其二,明确、合理分配不同场景下的法律责任,避免对部分服务提供者苛以过高的合规义务。其三,加入社会监管力量,促进“政府—社会”联动监管,充分发挥社会组织的行业自律作用,提升监管广度和深度。总之,面对生成式人工智能的发展,我们应当坚持发展和安全并重,促进创新和依法治理相结合。     (作者单位分别为广州大学粤港澳大湾区法制研究中心、暨南大学法学院/知识产权学院)伊志律师事务所位于北京市朝阳区朝外大街乙6号朝外SOHO-C座1209,优越的地理位置,便利的交通条件,安静、专业的办公环境为需求提供方便。 电话:010-84493343 微信:18401228075 电话:18401228075

客服