作者:郑智航山东大学法学院和网络安全学院双聘教授、博士生导师。本文原载《法律科学(西北*法大学学报)》年第1期。
随着互联网、大数据、云计算等科学技术的发展,人力、脑力和算力融合的程度愈来愈紧密,以生活要素数据化和机器自动化决策为核心的人工智能算法得到了越来越广泛的应用。人工智能算法使得机器能够通过可读的指令程序,根据网络痕迹、位置信息、消费记录等数据,对人的行为进行评价和预测。这种自动化决策方式在人员招聘、教育培训、无人驾驶、投资咨询、司法判决、智能诊疗、新闻推荐等诸多领域得到了广泛运用,极大地降低了人们的决策成本,提高了工作效率。然而,人工智能算法独特的运行逻辑导致法律赖以生成与存在的社会结构性场景发生了重大变化,加剧了决策者与相对人之间的“数字鸿沟”,造成个人权利与算法权力之间的失衡,从而诱发了一系列的伦理问题。这些问题在一定程度上颠覆了传统的法律认知,增加了传统法律治理的难度。要想增强人工智能算法法律治理的有效性和克服“人工智能时代的法律功能危机”,就必须回到人工智能算法这一基本原点,探求人工智能算法伦理危机产生的结构性因素,并在此基础上分析既有法律治理手段存在的限度,从而为人工智能算法法律治理的转型升级探明方向。
一、人工智能算法运行的基本逻辑
现代意义上的算法技术源于年代克劳德·香农有关信息论和通信系统的思考。他解决了信道容量、信源统计特性、信源编码、信道编码等一系列基本技术问题,为算法技术的运用奠定了架构基础。与此同时,麦卡洛克和匹茨推动了神经元计算科学的发展,提出大脑天然有着适合进行计算的结构,并认为所有可设想的有穷计算都可以被神经网络计算出来,这在事实上否定了“意识/肉体二元论”的观点。随后,阿兰·图灵在此基础上,发明了图灵机,让其执行被定义的算法任务。他在二战期间还带领数学家使用算法破译了德国纳粹分子的密码。进入网络时代后,人们逐步形成了一种以技术性和流动性为核心的在线生存样态。在这种生存样态中,人们日益被数据化和算法化。技术平台往往会利用自身的技术优势,生成一种隐性的支配权和控制权,从而形成人工智能算法独特的运行逻辑。
(一)人工智能算法的嵌入逻辑
从本质上讲,人工智能算法是一种利用机器深度自主学习能力对现实生活中大量分散的、碎片化的数据信息进行自动化处理的机制。从外在形式看,它主要体现为算法的研发者通过一系列的技术性指令作用于特定机器的活动。但是,这种活动具有较高的嵌入性。算法的研发者或运用者往往将虚拟世界的算法隐性地嵌入社会权力运行的结构中,并依托现实物理世界中的经济权力或*治权力,以“持续控制形式”渗入日常社会互动中的微观层面。在这种算法的嵌入逻辑中,传统的经济权力或*治权力借助算法技术的专业化和隔离化,形成技术与经济、技术与*治的联姻。如在经济领域,算法嵌入平台重构了消费者、平台与服务提供者之间的关系。算法下探至每笔交易贯彻平台交易规则,并对违约者予以即时处罚;在*治领域,算法可实时收集数据并持续运行,与公权力的实施具有高度契合性,并极大地增强了公权力运行的广度、深度和效率。
人工智能算法运行的嵌入逻辑推动了算法的机制化。“算法的机制化”是指根据算法而生成的具有普遍性、连续性、稳定性和恒久性的自动决策化机制。人工智能算法的嵌入逻辑使网络空间具有了卡斯特意义上的“无时间的空间”特质。算法在社会权力结构中的隐性嵌入,促进了所有数据被纳入算法建模系统中,并通过机器的自主学习升级延展,从而被永久性保存下来。因此,算法将每个人发生在网络中的相关信息和行为通过图谱画像方式变为连续性的常规动作,并被赋予预先设定的意义和内涵。以新闻智能推送算法为例,算法推荐新闻平台将实现自身利益最大化的算法嵌入新闻传播过程中,以便快速有效地检测出新话题和热点话题,以此构建一套新闻推送的日常机制。推送机制一旦形成,网络用户就逼迫接受算法筛选和推送的信息。
(二)人工智能算法的概率统计逻辑
从传统物理社会到人工智能算法的转变,意味着从牛顿的“大定律,小数据”技术范式向默顿的“大数据,小定律”技术范式的转移。在“大定律,小数据”技术范式下,人们能够对宏观物体的运动规律进行把握,并将这种普遍性规律运用于具体场境中。而在“大数据,小定律”技术范式下,人们以量子力学为基础,利用规则由小数据产生大数据,再由大数据练就“小定律”,通过“小定律”精准地掌握知识。人工智能算法正是利用了这种“大数据,小定律”技术范式。这种技术范式要求算法建立在概率统计的数理基础上,并通过智能化的机器依据特定场景、语境和实用需要,从海量的“大数据”中,随机提取特定的“小定律”,从而对行为形成一种反馈机制。这种概率统计逻辑要求算法的设计者采取二阶语言描述的技术,而二阶语言所描述的对象在原理上又可以转换为一阶语言所描述的对象。按照这种概率统计逻辑,断定某种状态是否满足某个问题就等同于断定某种模型是否满足某个一阶语言所描述的对象,而这种一阶语言描述的对象的真值源于初始状态是随机选择,并依赖于先验命题为真的概率。因此,人工智能算法的概率统计逻辑具有强烈递归思维色彩,即通过重复将问题分解为同类子问题来加以解决。另一方面,人工智能算法充分利用机器自身的深度学习能力,将分散的个殊化数据重新聚集,并作为形成未来数据处理方法的重要参数。机器深度学习强调的是计算机程序对于某类任务T和性能度量P,在T上以P衡量的性能随着经验E而自我完善。这种深度学习,以贝叶斯概率理论和Toulmin对推论的分析为基础,并形成了从证据到结论的“泛化”过程。算法设计者往往将具有一阶语言描述性质的分散数据之间的相关性解释为“适当的大概率事件”,然后从某一个结论出发,来论证这一决策的正当性。因此,Schum认为人工智能算法的概率统计逻辑具有拓扑的性质和特征。
(三)人工智能算法的效率主导逻辑
人工智能算法是一个以效率为主导的法则。它主要通过计算机程序来对问题进行“一种有限、确定、有效”的处理。这种对待事物的态度决定了人们在运用算法建构认知模型,进行自动化决策时,需要尽可能降低认知负担,并将其控制在合目的的范围内,从而提高效率。有学者认为,滋养算法的大数据具有追求效率而非追求绝对精确、强调相关性而非因果性的特征。平台和算法设计者也往往将效率与利益作为首要考虑因素。因此,人工智能算法的运行具有强烈的效率主导逻辑。究其原因,这既有架构和技术方面的客观原因,也有平台和算法设计者逐利的主观原因。第一,网络特殊的架构模式为人工智能算法的效率主导逻辑生成奠定了结构基础。人工智能算法依托于网络和信息技术的发展。目前,我们的网络架构是一种对等网络(P2PNetwork)架构模式。在这种架构模式中,网络建立了以积分为核心的激励机制。网络会根据积分高低来分配获取服务的顺序。算法设计者必须要考虑这种特殊激励机制以便有效地将算法嵌入到网络架构中。第二,计算机有限的自主学习能力是选择效率标准的一个重要原因。经过近半个世纪发展,计算机的自主学习能力得到了快速发展。但是,它仍然处于模仿人类的动作与感受的较低阶段,这种有限的自主学习能力致使算法只能选择一些最容易被量化的简单标准。相对于其他标准而言,效率是最容易被量化的。它也更容易被析分为没有争议的数字变量,以符合数学计算的要求。例如,在人工智能辅助办案系统中,算法更多处理的是程式化的不涉及价值判断的表层概括工作,而对于更高级的互动交流、非经济利益的价值评判等难以量化的工作则较少涉足。第三,平台和算法设计者的利益诉求需要考虑算法运行的成本和效益。算法的设计和研发需要有大量的资金投入。平台和设计者往往会从绩效正当性角度出发来衡量算法设计的合理性。因此,他们在研发算法时会主动植入研发者的价值导向和利益意图,以便用技术平台来帮助其完成特定的利益诉求,实现利润最大化的目标。以平台媒体、互联网巨头和门户网站为例,它们主要从绩效正当性出发来构建算法系统。为了追求效率或效益,它们设计的算法筛选程序是以用户兴趣为基本导向的,并建立了一套可量化的经济绩效评价标准。这种算法设计极大地增强了生活、娱乐类资讯的供给量。
二、人工智能算法的伦理危机
人工智能算法独特的运行逻辑正在深刻地改变着以往的生产方式和生活方式,并反客为主地对人的行为形成支配关系。人们可以借助于操纵数据与算法来实现控制人的目的。马长山认为:“掌握了数据,就意味着掌握了资本和财富;掌握了算法(Algorithm),就意味着掌握了话语权和规制权。”这种具有隐蔽性的算法权力会给人们带来系统性的不利后果,消解人的主体地位,侵犯公民的基本权利,诱发一系列的伦理危机。年美国白宫发布了一份题为《大数据:抓住机遇,保护价值》的报告。该报告认为,受数据来源特定性和算法设计者主观意图的影响,算法可能会系统性地减少个人获得信贷、就业和教育的机会。数据科学家称这些算法以及由此产生的算法权力为“数学毁灭性武器”。人工智能算法对以强调个人幸福和权利优先性为特点的现代伦理带来了巨大挑战,现代伦理以道德个人主义目的论方法论原则为指导,将个人幸福置于根本地位。这种方法论要求凸显人的主体性地位,并用主体性原则来构建现代社会。它将“人为目的”的道德观和权利优先性理念作为现代社会正义的基础,将人的外在行为所直接产生的现实效应或实质结果,或者由它带来的实际价值效应作为道德评价的依据。主体性、个体正义观和实质结果判断构成了现代伦理的基础。然而,人工智能算法对作为现代伦理支撑的主体性原则、社会正义观和实质结果主义提出了严峻挑战。这种挑战主要体现为人的主体性地位的消解、群组正义观代替个人正义观、人工智能在算法结果上的标签化效应等。
(一)人工智能算法中人的主体性消解
现代社会是一个以主体性为支撑的社会。黑格尔把“主体性”原则直接概括为“现代性”原则,并认为主体性主要包括“个人(个体)主义”“批判的权利”“行为自由”和“把握自我意识的理念”四个方面的内涵。这种主体性要求用人道主义终结封建专制制度,用理性主义杀死宗教中的上帝,用个人主义谋划自然解放。这三者最终可以归结为主体主义的确立和现代人主体性的生成。因此。现代社会是一个强调个人主义、理性主义和人道主义的社会,它要求在人的生活领域全面贯彻个人主义、理性主义和人道主义等基本原则。“这一主体地位不仅关乎于人生活的安全,也是人类文明开展的根基,其主体地位一旦动摇,*治、经济、文化、社会制度随即分崩离析。”然而,人工智能算法却在不断消解着人的主体性,动摇人在世界中的主体地位。特别是未来社会,随着人工智能通过深度学习具备了自身算法系统的反思能力和自己的万能算法语言,人的主体性将遭受更大的挑战。就目前而言,这种主体性消解主要体现在以下方面:
首先,算法使人面临客体化的危险。人工智能算法中,个人逐步被数据化和被计算化。在数据处理和整合时,算法将人按照各种各样的自动化区分标准进行排列,并赋予相应的意义。个人一旦进入这种数据化的“微粒社会”,就成为被算法定义的对象。这种新兴的算法权力并不是从主体角度,而是从作为可以被计算、预测和被控制的客体的角度来看待个人的。1.满足算法预设条件是用户进入人工智能算法的前提。从性质上讲,人工智能算法是一个网络技术和信息技术结合而建构出来的虚拟世界。个人要想进入网络接受平台提供的服务,获得平台承诺的优惠和完成支付等,就必须接受通过代码加以确定和规制的交易规则与支付规则。2.算法决定着人们在网络空间中的自由度。网络社会具有发达的信息筛选机制。这种机制通过设置技术障碍的方式,促进网络空间的分区,限制个人访问网络空间信息的权利。它主要通过网络巡查(CyberPatrol)、网络监视(SurfWatch)等筛选软件或利用浏览器的现有内置功能来实现控制。这些机制通过算法来定义网络分级检索方式和网络文件分级标签语法。人们要想在网络空间享有更大的自由权,就必须符合算法所认可的代码要求。3.算法将人类作为“计算组件”来增强算法自身的权威。例如,亚马逊的劳务众包平台(MechanicalTurk)就将劳动者视为一个完整的计算组件来映射进算法函数中。在这个算法系统中,人类从属于充当雇主的算法。算法系统按照评级标准自动分配劳务。美国和印度之外其他国家的劳动者通过亚马逊礼品卡获取报酬。这些劳动者可以用礼品卡兑换比特币,从而获得现金酬劳。CaitlinLustig认为,这种劳务众包平台能够运行下去的一个重要原因,是因为人们正在从对人的信任转向对机器和算法的信任,从而导致了技术异化。其次,算法容易将人锁定在自我编织的“信息茧房”中。“信息茧房”是桑斯坦提出的一个重要概念。他指出,在互联网时代,伴随网络技术的发达以及信息量的剧增,每个人都能随意选择