耶鲁大学社会科学与自然科学教授尼古拉斯·克里斯塔基斯(Nicholas Christakis)在即将于 4 月出版的《大西洋月刊》上撰文称,人工智能技术不仅会给我们带来便利,还有可能在悄无声息间影响人类社会的基本秩序。
以下为文章全文:
数十年来,人们一直在担心机器人可能会通过何种方式改变我们的生活。这也成为各种科幻小说热衷的主题。20 世纪 40 年代,人类与人工智能之间的广泛互动似乎还遥遥无期,但艾萨克·阿西莫夫(Isaac Asimov)却在那时提出了着名的“机器人三大定律”,旨在防止机器人伤害我们。
第一条是:“机器人不得伤害人类,且应确保人类不受伤害。”它的根源在于,认为机器人会通过直接互动对人类产生影响。
回想一下经典的科幻电影:C-3PO 和 R2-D2 与义军同盟合作,在《星球大战》中挫败帝国;或者《2001 太空漫游》里的 HAL 9000 以及《机械姬》里面的 Ava 都策划谋杀它们假意服从的主人。
虽然这些作品都充满想象力,但却并没有把重点放在人工智能更广泛、更重要的社会影响上——人工智能可以对人类之间的互动方式产生具体影响。
当然,激进的创新之前也曾经彻底改变过人类共同生活的方式。5000 到 1 万年前,城市的出现导致游牧民族减少,人口密度增加。无论是作为个体还是集体,我们都适应了这种状况(例如,这些新的环境更有可能引发传染病,而我们已经进化出相应的抵抗力)。最近,包括印刷机、电话和互联网在内的技术发明彻底改变了我们存储和传播信息的方式。
然而,虽然这些创新十分重要,但却并未彻底改变人类的基本行为,而这些基本行为也构成了我所谓的“社会套件”:这是我们历经数十万年进化出来的一系列关键能力,包括爱情、友谊、合作和教学。无论生活在城市还是农村,也无论是否使用现代科技,这些特征的基本轮廓在全世界范围内都高度一致。
但在我们中间加入人工智能可能会带来更大的破坏。特别是当机器的外观和行为与我们相似,并深入地渗透到我们生活时,它们可能会改变我们之间恋爱或交友的方式——不光是影响我们与相关机器之间的直接互动,还会影响我们人类彼此之间的互动。
实验带来的启示
我在耶鲁大学的实验室里做了一些实验,跟我的同事对这种效应如何发挥作用展开探索。在其中一项实验中,我们让一小群人与人形机器人一起在虚拟世界中铺设铁轨。每组由三个人组成,他们跟一个蓝白两色组成的小型机器人围坐在一张方桌四周,使用平板电脑工作。
我们通过程序让这个机器人偶尔犯一些错误,而且会承认自己的错误:“对不起,伙计们,我这轮犯了错误。”它调皮地说,“我知道这可能很难相信,但机器人也会犯错。”
事实证明,这个笨拙且懂得忏悔的机器人通过改善人类之间的沟通,帮助团队提升了表现。他们变得更加放松,也更加健谈,不仅会安慰犯错的同伴,还会经常在一起开怀大笑。与之相比,对照组的机器人只会冷冰冰地阐述信息,在团队合作方面显得逊色不少。
在另一个虚拟实验中,我们将 4000 个人类受试者分成大约 20 个组,并在组内为每个人分配“朋友”;这些友谊形成了一个社交网络。这些小组之后都领到一项任务:每个人必须在三种颜色中选择一种,但每个人选择的颜色都不能与其社交网络中指定的朋友的颜色相同。
受试者不知道的是,一些小组包含的机器人会因为内置的程序而故意偶尔犯错。与这些机器人直接接触的人类变得更加灵活,并且会主动避免那些可能对某个人有效,但却对整个小组无效的解决方案。更重要的是,由此产生的灵活性遍布整个社交网络,甚至会影响那些与机器人没有直接联系的人。
因此,这些容易犯错的机器人所在的小组,整体表现总是优于不会犯错的机器人所在的小组。换句话说,机器人能帮助人类来帮助他们自己。
这两项研究都表明,在我称之为“混合系统”的地方,也就是人类与机器人展开社交互动的地方,正确地部署人工智能可以改善人类彼此之间的关系。其他研究结果也印证了这一点。例如,政治学家凯文·芒格(Kevin Munger)下令某种机器人在人们通过互联网向其他人发送种族主义言论之后,对此进行干预。
他发现,在某些情况下,如果机器人只是简单地提醒肇事者,他们的攻击目标是一个人,此人的感情可能受到伤害,就可以令这名肇事者在一个多月的时间内减少种族主义言论。
但是,在我们的社交环境中加入人工智能,也会降低我们的行为效率和道德水准。在另一个实验中,我们希望探索人工智能如何影响“公地悲剧”。这个概念指的是,每个人的自私行为汇总起来可能对我们的共同利益构成破坏。
在实验中,我们向几千名受试者提供资金,以供他们在好几轮网络游戏中使用。在每一轮中,受试者被告知可以保留他们的钱,也可以将一部分或全部的钱捐赠给邻居。如果他们捐款,我们会捐出同样的金额,使他们的邻居收到的钱增加一倍。
在游戏初期,三分之二的玩家采取了无私的行为。毕竟,他们意识到在一轮游戏中对邻居慷慨捐赠,就可能促使邻居在下一轮游戏中对自己慷慨捐赠,从而建立互惠的规范。
但从自私和短视的角度出发,最好的结果其实是留下钱不捐,等着邻居给自己捐钱。在这个实验中,我们发现只要添加一些冒充人类玩家的自私机器人,就能推动整个小组采取相似的行为。最终,人类玩家完全停止了合作。于是,机器人把一群慷慨大方的人变成了自私自利的混蛋。
我们来思考一下这项发现的含义。合作是人类这个物种的一项关键特征,对社会生活至关重要。信任和慷慨也是成功群体区别于不成功群体的关键特征。如果每个人为了帮助自己所在的群体而展开投入和牺牲,大家都会受益。然而,当这种行为模式被打破时,公共物品的概念就会消失,每个人都会受到损害。人工智能可能会极大地降低我们的合作能力,这是一件非常令人担忧的事情。
现实生活的例子
事实上,现在已经有一些真实例子让我们领教了人工智能如何在实验室之外败坏人类之间的关系。一项在 2016 年美国总统大选前针对 570 万 Twitter 用户进行的研究发现,一些俄罗斯帐号(其中有一些由机器人操纵)经常通过跟非恶意帐号相似的方式转发信息,对保守派用户产生的影响尤其明显。
通过利用人类善于合作和好为人师的特征——这也是社交套件的两个特征——机器人甚至影响了没有与之直接互动的人,令美国的选举出现两极分化。
简单的人工智能所产生的其他社会影响每天都在我们周围发生。父母们看着他们的孩子咆哮着向 Alexa 或 Siri 这样的数字助理发出粗暴的命令,他们开始担心这种粗鲁行为会影响孩子们待人接物的方式,或者担心孩子与人工智能的关系会干扰甚至取代人际关系。
不久前,麻省理工学院的科技和社会学专家谢里·特克尔(Sherry Turkle),在给他的儿子买了一台玩具机器人后对《大西洋月刊》说,儿童成长过程中的同伴如果是人工智能,而不是人类,那么他们可能就会缺乏同理心。
随着数字助理无处不在,我们已经习惯于跟它们交谈,就好像它们也有感情一样。茱蒂丝·舒勒维茨(Judith Shulevitz)去年曾经阐述过我们中的一些人是如何开始将它们视为知己,甚至把它们当做朋友和治疗师。
舒勒维茨本人说,她向谷歌助手透露了一些连她的丈夫都不知道的事情。如果我们在与设备密切交谈时感觉越来越舒服,那么人类之间的婚姻和友谊会发生什么变化?
由于商业需要,设计师和程序员通常会开发各种能够让我们感觉更好的设备,但却可能无法帮助我们自我反思或思考痛苦的事实。随着人工智能渗透到我们的生活之中,我们必须面对这样一种可能性:它会阻碍我们的情绪,抑制人与人之间的深层关系,导致我们不再那么设身处地为别人着想,甚至变得更加肤浅和自恋。
所有这一切,最终可能以我们意想不到的方式改变人类社会,我们甚至需要将它当做一种政体来对待。我们是否希望让机器影响孩子的善良天性?我们是否希望机器影响成年人的性行为?
英国德蒙福特大学人类学家凯瑟琳·理查森(Kathleen Richardson)更担心后一个问题。作为“反对性爱机器人运动”的主席——没错,性爱机器人已经成为一种初级现象,所以为反对它们而掀起的运动不算杞人忧天——她警告说,这种机器人们将会令人们丧失人性,并可能导致用户退出真正的亲密关系。我们甚至可能不再单纯把机器人当成满足性欲的工具,还会以同样的态度对待他人。
其他观察家认为,机器人可以从根本上改善人类之间的性行为。在 2007 年出版的《跟机器人谈恋爱滚床单》(Love and Sex With Robots)一书中,从反传统的国际象棋大师变身商人的大卫·莱维(David Levy)考虑了“具有情感吸引力和性诱惑力的机器人”所带来的积极影响。他认为有些人会更喜欢机器人配偶,而非人类伴侣(事实上,去年已经有一名日本人与人工智能全息影像“结婚”)。
性爱机器人不会传播性病,也不会意外怀孕。它们可以为寡廉鲜耻的实验和实践提供各种机会——从而帮助人类成为“大师级情人”。有基于此,再考虑其他因素的影响,莱维认为与机器人发生性行为是道德的,在某些情况下甚至是理所当然的。
事实上,对于我们大多数人而言,在遭遇这种跟亲密关系有关的人工智能难题之前,应该还是会率先遇到更为日常的挑战。毕竟,无人驾驶汽车的时代已经到来。这些车辆有望大大减少困扰人类驾驶员的疲劳和分心问题,从而防止事故发生。但是它们会对人类产生哪些其他影响呢?
驾驶是一种非常现代的社交互动,需要高水平的合作和社会协调。我担心的是,无人驾驶汽车会剥夺我们锻炼这些能力的机会,导致我们的能力萎缩。
这些车辆不仅会通过程序来承担驾驶职责,从而篡夺人类做出道德判断的权利(例如,当碰撞不可避免时,哪个行人会被撞击),还会影响没有根它们直接接触的人类。例如,当驾驶员以稳定不变的速度与自动驾驶车辆共同行驶一段时间后,可能会精神松懈,注意力涣散。
因此,当他们驶入只有人类驾驶员的高速公路后,就更有可能发生事故。另外,经验可能表明,与完全遵守交通法规的自动驾驶车辆一起驾驶,实际上可以提高人类驾驶员的表现。
无论如何,我们都会肆无忌惮地开发各种新型人工智能,而不会首先考虑这些社会溢出效应——我们也经常称之为外部性。我们在管理人工智能对车外人员产生的涟漪效应时,也投入了足够的努力和独创性,就像开发无人驾驶汽车的硬件和软件一样。毕竟,刹车灯之所以设计在车尾,主要不是为了你自身的利益,更多地是考虑到你身后其他人的利益。
新的社会契约
1985 年,就在阿西莫夫制定“机器人三大定律”40 年后,他又增加一条:机器人不可从事任何伤害人性的事情。但他在如何评估这种伤害时却陷入挣扎。“人类是一个具体的对象,”他后来写道,“可以估计和判断一个人的受伤情况。而人性却是抽象的。”
如果集中精力关注社会溢出效应,或许可以有所帮助。其他领域的溢出效应推动了法律法规的建设和民主监督的健全。无论是涉及污染水源的公司,还是在办公楼里散布二手烟的烟民,一旦某些人的行为开始影响其他人,社会就可能会介入。
由于人工智能对人与人之间的互动会产生严重而深远的影响,而且速度快、范围广,我们必须系统地调查可能出现的二阶效应,并讨论如何才能代表共同利益对其展开监管。
已经有各种各样的研究人员和从业人员(包括计算机科学家、工程师、动物学家和社会科学家)开始齐心协力发展“机器行为”学科,希望将我们对人工智能的理解建立在一个更健全的理论和技术基础之上。这个学科并不仅仅将机器人视做人造物体,而是将其视为一种新的社会行动者。
这方面的研究非常迫切。在不久的将来,内置人工智能的机器可以通过编程或独立学习(我们将赋予它们这种能力),展示出与在我们看来非常奇怪的智力和行为。
我们需要快速区分哪些只是看上去古怪,哪些是实实在在的威胁。关于人工智能,我们最关心的是它可能影响人类社会生活的核心元素,也就是那些让我们这个物种得以繁衍生息的特征。
启蒙运动哲学家托马斯·霍布斯(Thomas Hobbes)认为,人类需要一份集体契约来阻止我们变得杂乱无章。他错了。早在我们组建政府之前,进化就为人类提供了一套社会套件,让我们能够和平而有效地生活在一起。在人工智能尚未诞生的世界里,通过基因遗传的爱情、友谊、合作和教学能力不断帮助我们共同生活。
不幸的是,人类没有进化出与机器人共同生存的天赋能力。因此,我们必须采取措施,避免它们在与我们共处的过程中造成破坏。随着人工智能更深入地影响我们的生活,我们可能还需要建立一种新的社会契约——只不过,这次的契约对象是机器,而不是其他人类。
网友评论