人工智能治理需正视“可容忍的风险”
在人工智能发展如火如荼的背景下,《人工智能安全治理框架》1.0版的发布可谓恰逢其时。不过,若要这部软法发挥最大效用,可能还需要再问三个问题。
责任编辑:侯明辉
在基辛格百岁寿辰前夕,他接受了《经济学人》杂志长达8小时的访谈。在这位期颐老人最后一次访谈中,他反复提及对人工智能的担忧。作为可能是历史上最重大、影响最深远的革命之一,人工智能的兴起不但会挑战人类的认知能力和理解世界的方式,它也在改变着经济模式、社会系统和权力结构,增加全球冲突的不可预测性和复杂性。
这并非基辛格的杞人忧天。事实上,随着美国《关于安全、可靠、可信地开发和使用人工智能的行政命令》、欧盟《人工智能法》等规范的出台,人工智能的安全治理已经成为各国高度关注并已然付诸行动的议题。在此背景下,全国网络安全标准化技术委员会于9月9日发布的《人工智能安全治理框架》1.0版可谓是针对人工智能安全问题提出的中国方案。
《人工智能安全治理框架》1.0版以风险治理为理念,立足于人工智能技术特性,首先提出了包容审慎、确保安全;风险导向、敏捷治理;技管结合、协同应对;开放合作、共治共享等四项原则。进而遵循风险识别、技术应对、综合治理的逻辑,针对人工智能系统设计、研发、训练、测试、部署、使用、维护等生命周期各环节的安全风险,要求模型算法研发者、人工智能服务提供者、重点领域使用者各司其职,在训练数据、算力设施、模型算法、产品服务、应用场景等方面积极采取技术应对措施的同时,还应与政府部门、行业协会、社会组织一道,共建多方参与的人工智能安全风险综合治理制度。
可以预见,《人工智能安全治理框架》1.0版的实施,将为培育安全、可靠、公平、透明的人工智能技术研发和应用生态,促进人工智能的健康发展和规范应用,提供基础性、框架性技术指南。同时,也有助于在全球范围推动人工智能安全治理国际合作,推动形成具有广泛共识的全球人工智能治理体系,确保人工智能技术造福于人类。
在人工智能发展如火如荼的背景下,《人工智能安全治理框架》1.0版的发布可谓恰逢其时。不过,若要这部软法发挥最大效用,可能还需要再问如下三个问题。
如何准确评估人工智能的风险?
与之前《生成式人工智能服务安全基本要求》(TC260-003)聚焦于语料安全和模型生成内容安全不同,《人工智能安全治理框架》1.0版从内生安全风险与应用安全风险两大方面,全面梳理了模型算法安全风险、数据安全风险、系统安全风险、应用安全风险等风险,并逐一描述和细化了各种风险表现。
不过,罗列风险只是第一步。根据风险规制的基本原理,风险问题包含三个先后相继的问题:有什么样的风险?发生风险的可能性有多大?可能的后果是什么?实际上,只有回答了后面两个问题,才能准确评估人工智能风险的实际大小,也才能发展出更可操作的风险治理措施。正因如此,未来有必要在识别风险类型的基础上,找到稳健且可验证的可靠指标与衡量方法。由于人工智能风险的复杂性,在国家标准层面,应始终坚持科学原则(scientific principle),充分考虑评估的可信度、适用性,确保风险评估的结果是由确实的证据和科学的方法推导而出,尽可能排除政治介入和民粹干扰。
如何为人工智能的风险排序?
评估风险是为了应对风险。但应对风险的资源永远是稀缺的,因此一个有效的风险回应机制是认识到风险并非都是同等的,从而根据人工智能风险类别的差异性,预先构建规制工具箱并准备相应工具,以提升规制的针对性和精准性,从而更有效的分配资源,而这正是敏捷治理的意义。
欧盟《人工智能法》将风险分为不可接受风险类、高风险类、有限风险类、最小风险类四个级别。每个类别适用不同程度的监管要求。高风险的人工智能系统须遵守更严格的合规要求,而构成不可接受风险的人工智能系统则被禁止。例如,高风险的人工智能就包括用于生物识别和分类、关键基础设施管理、教育和职业培训、就业、员工管理和获得自营职业机会、获得和享受基本私人服务及基本公共服务、执法活动、移民和边境控制管理、司法和民主程序的人工智能。
在仔细评估各种风险后,各方就需要对特定使用环境中最严重的人工智能风险,给予最紧迫的优先级和最全面的风险管理流程。如果存在迫在眉睫、严重伤害正在发生或存在灾难性风险,那么相关开发和部署应立即停止,直到风险得到充分管理。实际上,我国两部人工智能的专家建议稿均认识到人工智能风险分级的重要性。《人工智能示范法2.0(专家建议稿)》提出:国家人工智能主管机关根据人工智能在经济社会发展中的重要程度,以及一旦遭到攻击、篡改、破坏或者非法获取、非法利用,对国家安全、公共利益、社会稳定、环境保护,或者个人、组织合法权益、经济秩序造成的危害程度确立人工智能产品、服务负面清单,开展人工智能负面清单内产品、服务的研发、 提供活动前,应当取得国家人工智能主管机关的行政许可。《人工智能法(学者建议稿)》建议就“对个人的生命、自由、人格尊严等人身权益有重大影响的人工智能,以及在算力、参数、使用规模等方面达到一定级别的基础模型”等“关键人工智能”开展特殊管理。
展望未来,如何为人工智能的分级管理提供可行方案,可能是全国网络安全标准化技术委员会亟待解决的又一“关键问题”。
如何划定人工智能风险的容忍程度?
“无危则安,无缺则全”,在中国传统观念中,“安全”往往意味着没有危险且尽善尽美。然而,在当今风险社会(risk society)中,这种绝对的安全观念已经不合时宜。正如德国社会学巨擘卢曼所洞见的:我们生活在一个除了冒险别无选择的社会。无时不在、无处不在的风险弥散在周围,更重要的是,我们作为集体或个人做出的每个决定、每种选择、每种行动同时也在制造着新的风险。这从反面证明了风险的绝对性:人们用于应对风险的规制方式,本身就是滋生新型风险的罪魁祸首。由于现代社会前所未有的复杂与抽象,无论是冒险取向还是安全取向的制度,都可能蕴含运转失灵或决策失误的风险。这一规律早已被习近平总书记在2016年“全国网络安全和信息化工作会议”所指明:网络安全是动态的而不是静态的,开放的而不是封闭的,相对的而不是绝对的,因此一定避免不计成本追求绝对安全,那样不仅会背上沉重负担,甚至可能顾此失彼。
同样,试图完全消除人工智能的风险是对安全不切实际的期望,这不但可能浪费稀缺资源,更严重的是,可能导致不必要地牺牲了发展。在全球人工智能突飞猛进的背景下,不发展可能就是最大的不安全。为此,我们有必要借鉴英国金融服务局“合理期待”(Reasonable Expectations)的规制经验,与其说“零失误”的安全是人工智能治理的目标,毋宁说是“可容忍的风险”才是我们的目标。
所谓“可容忍的风险”,就是社会各方为了获得人工智能的利益而愿意承担的风险。这一风险的阈值固然受到人工智能的技术发展、应用场景、社会规范的影响,但归根到底,它有赖于企业、学界、技术专家、社会公众和政府部门就如何实现人工智能风险与收益的平衡达成共识。作为体现行业声音的规范指南,我们期待未来的《人工智能安全治理框架》2.0版能够明确提出适用于特定领域、行业的可容忍风险标准,并在此基础上,通过一个可行、渐进和包容的“公共讨论议程”,遵循多利益相关方的商谈逻辑和议题形成程序,最终凝聚“可容忍的风险”的共识。
毫无疑问,作为颠覆性的科技革命,人工智能带来的挑战也是颠覆性的。但我们不能沉湎于人工智能风险的恐惧中,而应积极和自信地构建以人为本的人工智能,宽容和容忍科技发展的不成熟和不安全。因为,只有为创新提供最大的空间,才能实现人工智能造福人类的伟大目标。
• (作者系对外经济贸易大学数字经济与法律创新研究中心主任)
校对:赵立宇