英国小说家伊恩·麦克尤恩(Ian McEwan)在他的新作《我这样的机器》中构想了一个世界,其中的机器人逼真到可以完全被当作人类,它们拥有意识、情感和欲望。书中的主角查理(Charlie)买了一个名叫亚当(Adam)的机器人,亚当甚至和查理的女朋友发生了性关系。所以,当查理最终决定违背亚当的意愿将它关停时,我们面临着一个伦理问题:这算谋杀吗?像亚当这样的机器人有不被关停的权利吗?
机器人权利?或许你会认为这个问题荒谬的不值得讨论,或者至少只是针对虚构人物而言的。然而,无论你是否相信,针对机器人是否应该拥有权利以及相应的责任,目前在科技领域以及学术界日益发展的人工智能伦理领域正进行着严肃的争论。
当前的人工智能理论尽管清楚地认识到我们还远未实现真正的通用人工智能,但却一如既往地对未来的前景无限乐观。例如,雷蒙德·库兹韦尔(Raymond Kurzweil)预测“意识上传”将在21世纪30年代成为可能,并将2045年设定为奇点之年。奇点是一个假设的临界点,在此机器的智能将超过人类,并将自行无限发展成为更完善和智能的机器。
从数字技术出现的早期开始,这些做出几十年后技术突破的美妙预言就一直在重复上演——但都一一被证明是空想。似乎通用人工智能、奇点和超级智能之于技术乐观主义者来说,就像世界末日之于宗教预言一样。技术乐观主义者认为,当这些梦想变成现实时,机器人应当被赋予权利。
这个论断是有缺陷的。
“人是未完成的,永远处于生成中。”
如果你接受认知科学的主流传统还原论,那么,那些希望赋予机器人权利的科学家和哲学家们就是有一定道理的。还原论传统认为,人类和机器人本质上都是物理系统:机器。只不过一个是生物成分的,另一个是硅材料的。在进化的过程中,我们称为人类的生物机器,以特殊的物质组织形式孕育出了意识和情感。如果是这样的话,原则上只要找到这些特殊组织形式的关键元素,我们就能够对其进行重造。
然而,传统认知科学根植于一个巧妙的循环论证。为了理解这个误解,我们首先要想到的是,长久以来我们一直在把自己与所处时代最先进的技术进行比较。例如,荷兰心理学历史学家杜威·德拉埃斯马(Douwe Draaisma)在他的《记忆的隐喻》一书中,描述了人们是如何把“记忆”与从古希腊的蜡块到现代光电照相机和计算机等不断更迭的技术作比较。“病人”,在西格蒙德·弗洛伊德(Sigmund Freud)的眼中是一个热力系统,如果压力得不到释放就会爆炸。德国医生弗里茨·卡恩(Fritz Kahn)将人类视作“资本主义机器”,工人在身体内部进行劳动,而监工在大脑管理系统。我们都知道,在第二次世界大战后,将心灵视为信息处理机器的“计算机隐喻”成为了主流。“隐喻”可以帮助我们建立对自身的理解——但我们不应本末倒置。
因此,如果希望从伦理的角度思考机器人是否是潜在的“像我们一样的机器”,我们需要意识到这其实已经在把自己理解为机器,理解为复杂的生物机器、进化形成的机器人。在塑造这种循环的隐喻的过程中,我们也忽略了人际关联与互动具有错综复杂、动态变化和无法量化的特质——人类的尊严、价值和情感被还原为一套形式主义地储存在我们大脑软件中的规则。
“在人工智能的现状下,呼吁机器人权利变得有悖常理——
这相当于为科技公司争取更多的权利和更少的责任。”
在概述人类和机器之间的核心区别时,德裔美国计算机科学家约瑟夫·魏泽鲍姆(Joseph Weizenbaum)写道,“我们制造的包括计算机在内的任何其他有机体都无法从人类的角度来面对真正的人类问题。”换言之,我们不只是复杂的信息处理机器。对他以及休伯特·德雷福斯(Hubert Dreyfus)等其他早期人工智能理论家来说,创造像我们这样的机器的想法本身是建立在对人类的误解之上的,是一个利用了人们的信任本能的骗局。
与还原论形成鲜明对立的是,认知科学的生成认知和具身认知进路在过去的几十年中涌现出来,并且越来越为人所知。这种观点认为人类不仅只是信息处理机器。相反,人类是流动的、具身的、嵌入式的、联结的和关系化的生命系统,并不断变化着。我们持续在自己和世界之间创造界限,但界限是变的,需要根据我们的生存活动、价值观念、情绪变化以及与他人的互动来进行重构。
生存着的肉身会笑、咬、吃、做手势、呼吸、分娩,能够感受痛苦、愤怒、沮丧和幸福。他们是性别化、风格化和政治化的,各自具有不同的能力、感受和力量。当前的新冠危机在一定程度上有助于我们理解网络生活转瞬即逝的特点。的确,社交媒体可以帮助我们应对种种事物,但这是一个纯粹的虚拟环境,只有在物理空间中生活、行动和互动的肉身才是成为完整的人所必需的。正如最近一本关于语言和认知的图书作者所说,“相比于雕像,(人)更像飓风”。
此外,我们无时无刻不“置身于”环境之中,嵌入在社会、文化、历史和规范体系之内。人类并不像传统认知科学的支持者所认为的那样,可以被彻底地定义和理解为完全自治的实体。相反,就像生成认知[1]的支持者所说的,人是未完成的,永远处于生成之中。换句话说,存在不是静态的,而是一种主动的行为。
在日常生活中,我们面临着无数开放的可能性和不可预测的变动。在这种动态的背景下,我们不断努力去理解我们的世界,寻求意义和价值。作为环境的组成部分,技术产品帮助我们维系社会生活和人际关系——在某些情况下,它们也延续了不公正。
“大多数未来主义科幻中的人工智能概念,其实无处不在隐蔽着存在于我们身边的现有人工智能。”
如果从具身化和生成化的角度来看人工智能技术,我们就可以勾画出一幅不同于目前大多数科幻小说所呈现给我们的画面。关键在于,我们生产的人工物和工具作为我们生存维系过程的一部分,不仅是人类活动的被动结果——我们创造的东西一旦投入使用,就会在这个自我维系过程中发挥重要作用。人工物成为我们灵活的、有意义的身体的“组成部分”。
对此,哲学家马丁·海德格尔(Martin Heidegger)曾拿锤子举过一个著名的例子,在木匠手中,锤子不再是被动的外部物体,而是木匠有着熟练技术的身体的无缝延展,木匠用它来接近和感知自己工作的对象。同样,另一位哲学家梅洛·庞蒂(Maurice Merleau-Ponty)也曾对盲人手杖进行过著名的讨论,他认为盲人感知到的并不是他们手中的手杖,而是通过手杖末端来感知街道。当使用熟练时,手杖成为了有意义的身体一部分——尽管这并不意味着工具本身具有智能性。
我们既不应将机器人和人工智能算法视为我们自己的复制品,也不应把它们看作是可以被赋予或剥夺权利的实体。相反,我们应该根据它们在这个世界上实际存在的模样来看待它们:它们是人类在理解世界的过程中创造的社会物质环境中一个影响力与日俱增的因素。
换言之,如果人工智能算法是我们思考时使用的首要工具,但它们本身并未进行思考,那么为像机器人这样的人工智能主体争取权利就有问题了。假如像其他人工物和工具一样,我们将人工智能融入到我们有意义的生活实践中,那么为“它们”的权利辩护就等如同讨论存在于外部的技术的道德地位一样,而事实上它们是我们人类自身的内在方面。
“那些声称关心人工智能伦理的人们恰恰应该把精力和时间花在个人和群体的福祉上。”
如今,许多哲学家都在基于本质上是科幻小说情节的场景去谈论机器人、人工智能以及它们的权利。放眼当下的人工智能,我们看到的则是这些伦理问题:哪些人可以使用人工智能,哪些人只是人工智能的被动接受者,哪些人会被人工智能压制或边缘化。在人工智能的现状下,呼吁机器人权利变得不合理——这相当于为科技公司争取更多的利益和更少的责任。所以,让我们不再谈论假想中的机器人。让我们谈谈苹果语音助手(Siri)、奈斯特(Nest)、伦巴(Roomba),以及谷歌(Google)、亚马逊(Amazon)、脸谱网(Facebook)和其他公司使用的算法。
这个星球上有许多生命——我们的人类同胞——我们需要给予他们那些我们希望给予自己的道德地位。这才是人工智能伦理面临的真正挑战。就当下而言,我们至少可以说,现在的人工智能技术在尊重人类权利方面做得并不好。事实上,由大型科技公司开发和部署的人工智能是由侵略性的资本主义利益所驱动的,与最弱势的个人和社群的福祉针锋相对。机器系统的大规模融入社会、文化和政治领域是一种创造监控系统并使之标准化的做法。这些系统为大型公司创造利益,同时往往会成为伤害贫穷和被剥夺权利人群的工具。
在大多数未来主义科幻中的人工智能概念中,其实无处不在隐蔽着存在于我们身边的现有人工智能。在等待类人机器人出现的同时,我们忽视了其实已经成为我们日常生活背景的那些人工智能。这其中包括各种物联网(loT)设备、“智能”系统以及渗入公共和私人生活的摄像头和传感器。与众所周知的人形机器人索菲亚(Sophia)相比,伦巴(Roomba)扫地机器人显得平庸而普通。但它配置的摄像头、传感器和软件使它能够绘制出家这个私人空间的地图,跟踪自己的位置,并与其他物联网设备相连接,识别我们的习惯、行为和活动。
“我们发现,机器人权利辩论的核心在于第一世界对抽象概念的关注,这些抽象概念往往都是与现实中的具体事件过度脱离的。”
当“智能”系统不是像伦巴(Roomba)这样的物理机器,而是以无形的算法代码存在时,我们更难意识到其实自己已经生活在各种“智能”系统集合之中。系统若有能够隐藏自身存在的能力,随之而来的就是更为隐蔽的动机和应用以及更高的潜在危害。已经有人打着提升效率的旗号,在银行业务、招聘流程、警务执法和其他高风险的情境中部署了算法系统,对社会进行整理、监控、分类和监督。但实际上,它们进一步强化了历史上的不公正和社会刻板印象,并将那些本已处于社会边缘的人群置于更为不利的地位。
当一个人没有特殊权力时,脸谱网(Facebook)的算法不只是在改变我们接收的新闻或发送有针对性的广告——关键在于例如房屋出租或工作机会等潜在的能够改变人生的重要信息,有时会对被认为是“贫穷的”或“不适合”工作的人们隐藏起来。由于这是在那些遭受算法不公正待遇的人群不知情和无意识的情况下发生的,因此也就通常无从质疑。这意味着,尽管企业有更多去“理解”消费者和竞争对手的权力,但个体却被蒙在鼓里——我们被看不见的技术衡量和评价,却没有办法把它们纳入我们自己的有意义的实践中。人工智能并不总能赋权,相反,它经常是压迫性的,尤其是对于那些已经深陷泥潭的人们。
机器人和人工智能系统本质上是保守的,它们与权力和财富密不可分。从带有种族主义、歧视算法的搜索引擎,到监视、监控并“商业化”我们拥有的“智能”设备,技术创新大都是源自不信任和惩罚性动机。像亚马逊的Ring这类家庭安全设备给人们制造了恐惧。在打击犯罪和社区警务的幌子之下,这些设备侵入公共和私人空间,跟踪和监控(通常基于刻板印象)“可疑”人员,而于此同时大型科技公司坐收渔翁之利。
“考虑到对社会最弱势群体造成的真实威胁和伤害后,再将这种扶手椅上的精神思考作为紧迫的道德问题就让人不齿了。”
无论是算法歧视、身份识别(或错误识别)、隐私侵犯,还是其他由机器融入社会和个人领域带来的有害结果,有两件事是不变的:特殊权力最少的人群会受到严重的负面影响,而有权势的个人和公司将从中受益。我们怀疑,当那些开发和普及人工智能系统的人们(或是那些主张机器人权利的人们)谈论“人类”时,他们通常会把这些弱势群体和个人抛之脑后。但是,那些声称关心人工智能伦理的人们恰恰应该把精力和时间花在这些个人和群体的福利上。
例如,2019年10月,轮椅使用者艾米丽·阿克曼(Emily Ackerman)描述了她是如何被星舰科技公司(Starship Technologies)的机器人“困”在路上的。这些机器人使用路边坡道横穿街道,其中一个挡住了她去往人行道的路。“它们将为无障碍通行和安全带来严重的问题”,她在推特上写到。这种情况可能涉及一系列问题,例如这些机器人是否有权使用公共空间,如果禁止它们是否侵犯了它们的权利。
是否应该赋予《我这样的机器》中的机器人亚当以权利——以及“谋杀”他是对还是错——这是一个假两难问题。亚当显然是一个幻想,一个概念性的构想。但阻挡阿克曼进入人行道的机器是真的,它将一个活生生的人置于真正的危险之中。应该优先考虑谁的权利?公司用来垄断公共空间以获取经济利益的机器吗?如果是这样,将会导致边缘个体和社群遭到非人化。
“关于自动驾驶汽车的争论主要集中在像电车难题这种假想场景上,而不是在承担‘微工作’的工人的福利上。”
我们发现,机器人权利辩论的核心在于第一世界对抽象概念的关注,这些抽象概念往往都是与现实中的具体事件过度脱离的。围绕主体、意识和智能等概念的理论讨论主导了这场辩论。这种扶手椅上的精神思考本身没有错,但考虑到对社会最弱势群体造成的真实威胁和伤害后,再将它们作为紧迫的道德问题就让人不齿了。
当然,随着技术的发展,理论的融贯性和概念的严密性是必要的。但这不应作为出发点。让我们从那些严重受到技术负面影响的人们的具体现实生活状况出发,然后再进行理论和抽象探索,特别是如果我们真切关心那些被压迫者的福祉的话。理论和具体状况之间有一些交集问题,但尽管如此,前者是只有特权阶层才能承受得起的奢侈的理论推测,而后者事关如何在这场辩论发生的背景下生存下去。用于诊断人口的种族主义算法对一个人来说可能是一种智力思考,对另一个人来说可能是生死攸关的事情。
机器人权利倡导者面临的另外一个主要问题在于,很难划分应当被赋予权利的实体的界限。例如,为了让所谓的自动驾驶车辆“识别”道路、行人和其他物体,人类必须首先对图像进行注释和标记,并为训练这些机器准备“原始”数据。这种被称为“微工作”或“众包工作”的工作是剥削性的,通常报酬很低,有时根本没有报酬。尽管如此,对于人工智能伦理学家和理论家来说,关于自动驾驶汽车的争论主要集中在像电车难题这种假想场景上,而不是在承担‘微工作’的工人的福利上。
最后,有权利就有责任。如果我们赋予机器人和人工智能系统权利,那么大型企业本该为“自己精心研制的机器所引发的不公正事件”承担的责任将化为乌有。换言之,赋予机器人系统权利相当于扩大了技术开发商和公司控制、监视和非人化大众的权利。大型科技垄断企业利用语言的模糊性和各种其他漏洞,花费数百万美元游说、影响监管政策,他们对规避责任和问责已经驾轻就熟。将技术公司开发和普及的人工智能系统视为与这些公司剥离开的、或是需要权利的“自主”实体,这不是伦理——而是不负责任的,将伤害到更多弱势群体。
蓝天蒙「睿ⁿ」 | 编
[1] 生成认知理论是认知科学哲学的一支流派,它认为认知与生命本身的基本过程是连续一致的,是一种积极的、持续的与环境的动态耦合,通过这种耦合,有机体“生成”了自身和世界。
(本文原文为英文,出自博古睿研究院出版的Noema杂志,发表于2020年6月18日。版权所有,未经允许请勿转载)