人工智能安全的双重规制体系
来源:中国社会科学网-中国社会科学报
作者:赵精武
2019-02-20 08:18

  滥觞于20世纪初的人工智能因大数据、云计算的技术突破而重新焕发生机,技术革命的演进为人类打开步入智能融合的数字社会的大门,人类的行为模式和思维活动随着各领域技术的延展而蜕变。自劳伦斯·莱斯格(Lawrence Lessig)教授的《代码2.0》出版以降,新技术与规范之间在本质论层面产生了紧张关系。莱斯格教授将代码与法律的互动关系喻为东西海岸之争,用以说明究竟是技术塑造了法律规范,还是法律形塑了技术规范。他的核心观点直指要害,任何技术的规制路径都应当包含市场、架构、社会规范和法律四个维度,人工智能所特有的国家、社会、商业、伦理纵横交错的复杂利益关系导致人工智能的安全问题不断复杂化,从莱斯格教授处抽丝剥茧式觅得人工智能安全规制的完美答案已成奢望。

  内外双重视角下的安全秩序

  图灵意义上的人工智能是通过人类知识驱动推理的机械化运作方案,而随着云计算技术不断的衍化、迭代,现代意义上的人工智能由算法和数据耦合所构成,呈现出数据驱动计算运作机理。以机器学习能力为界,有学者将人工智能区分为“符号主义”的老派人工智能和“联结主义”的新人工智能;也有按人工智能的聪慧等级来划分,将人工智能分为弱人工智能与强人工智能(当前强弱区分说已经成为主流观点)。诚然,无论何种分类标准,都对人工智能的社会作用不谋而合,即人工智能正在颠覆人类既有的社会思维习惯和法律规制方案。此外,从国家竞争的角度来看,人工智能也是各国军备竞赛、争夺霸权的“隐形”战场,甚至有不少国家为了谋取优势地位而选择性忽略对人工智能脱缰所带来的伦理问题。人工智能所独有的政治性、社会性以及错综复杂的利益结构,需要从治理层面重视人工智能安全问题。一方面要从内部技术视角关注算法安全和数据安全,同时也要从外部视角关注伦理安全和国家安全。

  人工智能的安全秩序包含算法安全、数据安全、国家安全、伦理秩序安全四个维度,传统规制人工智能观念正经历着迭代、升级,数字正义(digital justice)作为技术领域的全新秩序价值正发展成为普遍共识。数字正义并非仅关乎在线纠纷的解决,它的核心在于厘清科学技术产生各种类型纠纷的本源,以期利用法律、技术共同预防和解决纠纷的产生。作为人工智能安全价值基础的数字正义理论包含数据正义(data justice)、算法正义(algorithm justice)、国家安全、人类安全四层次的内涵。当前人们多将目光聚焦在数据正义(data justice)领域,欧盟的《统一数据保护条例》、中国纳入立法规划的《个人信息保护法》都是在信息自决的理念基础上对数据流动安全、数据使用公平问题所作的法律秩序安排。

  算法规制与算法正义

  囿于当今的技术条件和科技水平,我们可以预见,人类社会仍将长期处于弱人工智能时代,当前算法歧视、算法暴政已经直接威胁到人类科技与经济民主。有鉴于此,算法正义是这个时代需要关切的重点及难点,由人工智能安全的内部视角来观察人工智能规制,会发现其核心即是对算法设计本身的规制,弗兰克·帕斯奎尔(Frank Pasquale)认为一切算法的本质是黑箱,这一观点在技术层面的隐喻为:机器学习神经网络中存在隐层逻辑使得设计者无法对机器学习的优化结果做出合理的解释。但从算法的外部效应来看,黑箱具有相对性,所谓“算法黑箱”仅指对用户的不透明,对设计者来说算法是一种公开且透明的技术实践方案。因此,无论是要求算法设计者强制披露、算法设计者完成设计时自我验证以确保算法的有效性,还是充分尊重用户个人选择,赋予用户事后的算法解释权,以化解合同双方的力量不对等状态,限制“算法权力”,其重点都在于人工智能领域安全维护需要对作为沟通工具的算法进行规制。

打开微信,点击底部的“发现”,使用 “扫一扫” 即可将网页分享到我的朋友圈。

分享
4833094
0