北京房产继承律师|法律提示工程师的价值、风险及法律规制
来源: 北京伊志律师事务所
作者: 北京伊志律师事务所
2024-08-06 10:27:18
641
民主与法制网是由中国法学会主管、《民主与法制》社主办的中央政法媒体,于2000年上线开通。2014年2月获得国务院新闻办公室颁发的《互联网新闻信息服务许可证》,具有新闻信息采编、发布及转载权限。2017年9月,再次获得国家互联网信息办公室换发的《互联网新闻信息服务许可证》,同时民主与法制网微博、微信公众号也获得新闻发布权。2020年7月,民主与法制网荣获中央政法委第二届“四个一百”优秀政法新媒体“优秀资讯类账号”。民主与法制网集全网之力,成为集政治、经济、法治、文化、社会、信息、视频、互动等为一体的国家一类新闻网站,同时与新浪微博、今日头条、一点资讯等均建立了一键分享功能,开通了民主与法制网抖音、快手等视频账号,欢迎网友转载互动。伊志律师事务所位于北京市朝阳区朝外大街乙6号朝外SOHO-C座1209,优越的地理位置,便利的交通条件,安静、专业的办公环境为需求提供方便。 电话:010-84493343 微信:18401228075 电话:18401228075
ChatGPT自2022年年底发布以来,影响力持续扩大,也促使一些新职业产生。在一些常规的、重复性的初级技能领域,生成式人工智能已经可以处理部分文字工作。在法律领域,有些全球知名律师事务所开始尝试在日常律师业务中应用GPT等生成式人工智能,其中一种就是GPT法律提示工程师。 随着人工智能技术的发展,一些新的工作岗位陆续产生,生成式人工智能的出现催生了一种新的职业类型,即提示工程师(Prompt Engineer)。美国公司Open AI前员工创立的Anthropic公司招聘提示工程师,根据岗位说明和聘任要求,年薪可高达33.5万美元,而且该职位并不要求具备计算机工程学位。目前,市场对提示工程师的需求持续增长。有专家预测,对就业岗位更为紧俏的法律职业来说,法律提示工程师可能是未来职业发展的一个方向。
法律提示工程师的技能与价值定位 从技术角度看,大型自然语言模型依赖两个关键性步骤完成内容输出:其一,以互联网上的大型语料库训练人工智能神经元网络。其二,确保人工智能生成的内容更符合人们的预期,就需要为人工智能撰写文本提示。提示工程师可以帮助人工智能更精确地拆解问题和描述问题,从而让人工智能发挥最大潜力。该工作岗位要求提示工程师完成计算机代码和人类语言之间的交互,以优化输出内容。提示是一种建立在用户和大型语言模型之间的桥梁。作为制作“提示”的提示工程师,可以用语言、推理、句子等形式完成“提示”,用以引导语言模型更为有效地完成各项任务。 在应对法律领域的任务时,生成式人工智能需要专门的法律提示工程师参与语言模型训练。一般而言,合格的法律提示工程师应具备三个方面的知识和技能:首先,需要掌握算法和自然语言处理技术方面的知识和技能。尽管法律提示工程师并不需要具备计算机工程方面的学位,但是需要掌握一定的编程语言、自然语言处理技术等相关知识,还需要通晓人工智能领域的最新技术,具备这些技能才有利于顺畅地开发和维护法律提示系统。其次,法律提示工程师不仅需要具备法律专业知识,还需要丰富的法律业务实践经验。最后,法律提示工程师还应具备换位思考的能力和语言表达能力,需要用精确、简单、清晰的语言描述用户的需求;需要对用户行为数据进行分析,识别和表述用户的意图和语言习惯,完善个性化和场景化的提示任务。因为一个好的“提示”,既要范围明确、内容具体,也要合乎逻辑、通俗易懂。 生成式人工智能的出现,将极大地改变未来法律工作的形态,人工智能将成为法律人的辅助性工具,如利用人工智能进行证据分析和案件研究,撰写法律文书、优化案件管理流程、收集和提取关键法律数据和文档信息,甚至可以预测司法裁决结果。生成式人工智能在司法业务中的应用,可以极大地提高工作效率和节约法律服务成本。目前,有的律师已经开始使用语言模型来处理日常的业务。位于伦敦的全球知名律师事务所Mischcon de Reya LLP就发布过“GPT法律提示工程师”的招聘信息。随着GPT等生成式人工智能在法律行业的广泛应用,未来,法律提示工程师的需求可能将大幅增长,前景可观。
法律提示工程师的风险及法律规制 虽然法律提示工程师是一个未来具有广阔发展前景的行业,但也面临诸多挑战和不确定性。尽管生成式人工智能可以广泛应用于教育、法律、医疗、娱乐等领域,但是也可能带来诸多风险,诸如个人隐私泄露、危及版权保护,出现深度伪造、数据安全等。涉及法律提示工程师的风险可能主要包括两个方面:其一,法律提示工程师的职业风险;其二,内容上的法律风险。从职业风险角度看,法律提示工程师应当遵守法律法规,不得误导或者扭曲语言模型,导致出现虚构法律依据或者违背法治精神的内容输出;从内容上,应当防止不当内容的生成并履行相应内容的标识义务。 法律提示工程师作为生成式人工智能训练提供法律服务内容的一个关键环节,应从三个方面着手制定职业伦理、法律审查和纠偏机制防范风险。首先,制定法律提示工程师的职业伦理规则。法律提示工程师不仅应当具备专业的法律知识,还应以“科技向善”的精神,让内容输出符合主流价值观,预防不良信息以及危害公共利益和国家安全的内容传播,不得在引导提示中误导语言模型或者虚构事实。其次,建立纠偏机制。人工智能生成内容可能出现算法歧视、违法以及不良信息,甚至危害国家安全。在训练语言模型过程中,应建立相应的纠偏机制,内容提供商应定期开展抽查和检验,确保“提示”工作有效、合法和可控。最后,强化内容的法律审查。法律提示工程师的“提示”应当具备一定的可溯性,在内容识别、备案和评估等程序上强化监督,保护内容使用者的合法权益。 目前,我国拟出台的相关规范对生成式人工智能的服务管理进行了规范。2023年4月11日,国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》,对人工智能可能存在的风险和治理难题提出了规制方案。其中,该征求意见稿第七条、第八条和第十三条对算法训练的相关义务进行了规定。在算法训练上,训练数据的来源应具有合法性,算法标注者应制定相关职业标注规则,培训标注人员对内容进行抽样检验,在产生不当内容时,应采取纠偏手段。服务于人工智能生成内容的提示工程师作为内容输出的关键一环,在内容输出的引导和优化方面可以发挥重要作用,可以从提示工程师角度规制生成式人工智能服务管理风险。法律提示工程师不仅需要具备专业的法律知识,还要具备感知社会治理动态以及文化伦理差异的能力,这样才有利于设计出合情合理合法的高质量的“提示”。 (作者单位:西南政法大学数字法治政府研究院)伊志律师事务所位于北京市朝阳区朝外大街乙6号朝外SOHO-C座1209,优越的地理位置,便利的交通条件,安静、专业的办公环境为需求提供方便。 电话:010-84493343 微信:18401228075 电话:18401228075