当前,生成式人工智能技术的应用场景不断增多,相关技术在商业上有较为广阔的使用前景,但其中潜藏着法律安全风险和侵权隐忧,如“AI换脸”引发名誉侵权、诈骗犯罪等,近期火热的“AI复活”也引发批评和争议。如何有效协调技术与法律、技术与伦理之间的关系成为生成式人工智能治理面临的重要议题。业内指出,面对新风险,需要渐进式地出台细则规定、伦理规范,以保障科技安全,避免技术滥用。
随着生成式人工智能技术不断升级,“AI复活”“AI换脸”等应用场景带来的法律问题频出。
“AI换脸”是深度伪造在视频领域的一种具体应用,主要是将一个人的面部换到另一个人身上。相关技术被应用到商业活动中时,存在隐私协议不规范、存在数据泄露风险等问题。商业平台未经当事人允许擅自使用其人脸信息,面临侵权的法律诉讼的案件也层出不穷。同时,由于“AI换脸”技术生成的视频和图像非常逼真,其也被用于犯罪、电信网络诈骗,损害了相关领域的社会公共利益。“AI复活”是将逝者的个人信息资料输入AI算法模型,再现其生前形象。但多名法律人士指出,未经近亲属同意擅自利用AI技术“复活”逝者构成侵权行为,会侵害逝者的肖像利益,同时还可能侵害逝者名誉权益,侵犯逝者及其家属的隐私信息,涉及著作权侵权等诸多法律问题。
面对生成式人工智能存在的法律挑战,2023年8月,中央网信办出台《生成式人工智能服务管理暂行办法》,旨在强化对生成式人工智能行业的规范化管理和引导。业内人士分析认为,技术迭代迅速,现有规则是否能够全面覆盖未来可能出现的应用场景;如何在鼓励科技创新与产业繁荣的同时,做到有效约束技术滥用,防止损害公民权利和社会公共利益等问题,都是该办法在未来实施过程中可能存在的缺憾。中国政法大学数据法治研究院教授张凌寒指出,我国已有的一些人工智能的法规符合中国本土特色,但大部分以部门规章为主,效力位阶较低。此外,多数监管部门基于自身监管职能出台部门规章,导致缺乏一个统筹协调的机制和视角。
业内建议,AI技术风险的预防需要完善规则、技术更新、行业自律等方式实现协同治理,规范人工智能技术的应用发展。
一是采用渐进式规则完善方式引导技术有序发展。中国传媒大学文化产业管理学院法律系主任郑宁等人指出,在新技术应用初期,会存在一定的模糊地带,法律法规和监督管理也会有滞后性。总体而言,科技发展的边界应该在维护社会法治、保护个人权益和确保伦理底线的前提下进行。现有法律难以规制的,可通过不断“打补丁”的方式出台新规则,逐渐完善规制生成式人工智能技术的规范体系,给新兴领域技术发展留出足够空间。此外,可通过“软法”如行业标准、企业自律行为等,在实际操作中发挥规范作用,行业协会牵头制定伦理标准,推动企业和从业者遵循标准,从而解决技术运用中的伦理与法律问题。
二是在治理中平衡技术创新和技术治理的关系。浙江大学光华法学院教授程乐指出,在采取措施加快生成式人工智能创新发展的同时,也要认识到其所带来的内外部风险挑战,相应地进行治理。一方面,通过简化行政许可、减少税收等政策积极鼓励企业进行技术创新,引导企业利用自身发展推动经济社会发展。另一方面,有关主管部门坚守依法治理底线,对于企业可能的违规违法行为予以及时规范和处理。如果现有法律法规无法有效规范技术发展的新业态,可先由主管部门予以警告、通报批评,责令限期改正,之后及时进行立法(需要考虑特殊立法与一般立法、国家立法与地方立法的辩证关系),确保有法可依、依法行政。
三是充分发挥职能部门的监管效能。业内人士指出,监管部门要划清技术应用边界,明确平台的责任规则,坚持谁使用谁负责,强化平台的监管责任。完善生成式人工智能技术应用的商业规则,包括知识产权归属和财产权益归属等,强化人工智能服务的行政审批备案机制。中国行政法学研究会常务理事沈福俊认为,监管部门还需更加关注新技术发展对市场端的影响,加大事前监管力度,充分运用现有的法律法规资源实施有效监管,尽早发现隐匿在“监管盲区”的新问题。监管部门可适时引入新兴技术,探索用AI技术监管AI的可能。同时,对生成式人工智能服务的产业链要保持关注、合理辨析,在现行法律法规基础上做好数据保护、涉诈犯罪风险预防等方面的监管。
四是推动平台承担落实法律责任。国际关系学院知识产权与科技安全研究中心主任郝敏、北京互联网法院综合审判三庭庭长孙铭溪表示,“AI换声”“AI换脸”等服务的规制需要多主体协同共治,平台承担的主体责任不容忽视。相关平台应严格遵守法律规定,履行AI技术服务提供者的义务。不得利用相关技术生成危害国家安全和利益、损害国家形象、侵害社会公共利益侵犯他人合法权益等。加强训练数据管理,采取必要措施保障训练数据安全,落实对于人工智能、深度合成等生成内容进行标识的规定。有关平台要帮助中老年用户群体辨别深度伪造技术,取缔不当得利的违法违规商家,尽可能减少技术滥用带来的社会风险。
来源:法治网舆情中心