邱仁宗:有制造可信任人工智能的配方吗
文|邱仁宗 中国社会科学院哲学研究所研究员,中国医科院/北京协和医学院生命伦理学研究中心学术委员会主任
我在生命伦理学学术群微信的讨论中提出了一个中国和世界上所称的“人工智能”是否真的存在的问题,也许存在的是一种“仿”人工智能而已。其实,在我的意见背后是对中国研究人工智能科技的人文和社会科学方面或ELSI方面的不满意。我觉得,我们的学术活动组织者或自称为“学院”或“学会”的机构擅长造势,而组织不起认真的学术研究。
首先不重视人工智能的哲学研究,即哲学分析,而哲学分析正如我们在《医学与哲学》2021年第一期发表的讨论医学与哲学之间界面的论文中所指出的,应包括概念的分析和论证的分析。在人工智能的研究方面,从作为一个哲学家的角度来说,我们首先要分析“智能是什么”,然后“人工智能是什么”。而我们更多的自称从事哲学研究的人却只是前呼后应地跟在媒体、一些科学家和商家后面呐喊,而听不到他们独自的声音。
我在微信的讨论中指出,不管你如何定义人的智能,你是否承认人的智能中有意会知识(tacit knowledge)、因果思维(人工智能的算法中只有相关correlation)以及人在智能活动中存在着意向(intention)这些不可或缺的要素。那么,迄今为止人造的人工智能系统中有哪一个具备意会知识、因果思维和意向呢?没有。我进一步分析了人的智能发生的系统发育和个体发育,未经历这些发育过程的机器或任何其他系统如何能具备人的智能(甚至不具备高级动物例如猫的智能)?用一位哲学家的话来说,The computer is not in the world.与我指出的问题非常类似的就是研发可信任人工智能(trustworthy AI)。最近我读到了The Hastings Report杂志(这是世界上第一个生命伦理学研究中心主办的学术刊物) 2021年2月19日发表的三位德国学者(Matthias Braun, Hannah Bleher, PatrikHummel)写的文章,题为“信仰之跃:有制造‘可信任’人工智能的公式(或配方)吗?”他们对“可信任AI“的批判分析对我们的AI研究是非常有启发的,值得我在这里向大家介绍。
问题缘起于2018年欧盟委员会建立的独立高级别专家委员会(Independent High-Level Expert Group onArtificial Intelligence)的一份报告,题为《可信任的人工智能的伦理指南》(Ethics Guidelines for Trustworthy AI)。该报告指出AI应该是可信任的(trustworthy)。德国学者从分析信任这个概念着手,在此基础上进一步指出“可信任人工智能”的种种问题。他们的分析全然没有德国传统哲学的思辨古风。Leaps of faith这个短语从19世纪开始使用,faith(信仰)被认为是有感情的、认知的和实践的诸成分。我们可以认为,信任(trust)是一个人或其他实体(如机构、公司)对另一个人或其他实体的一种态度,而前者赋予后者这种态度(信任)并不是前者理性的延伸,而是信仰的跳跃(leaps of faith)。“信仰的跳跃”是指相信某种东西的存在或努力实现某种结局是不能得到证明的行动,超越了理性的范围。有人说,爱一个人就是“信仰的跳跃”。因此,信任总是不确定的、脆弱的,无法通过一套公式化的办法(例如配方)来促进。信任人工智能并不能加速社会对人工智能的接受度。而社会对人工智能的深思熟虑之中的不信任(distrust),倒是与信任有关,不信任的富有成果的方面是,它使人们放弃技术,限制其力量,并实施有意义的人类控制。
研发可信任的AI是中心目标
作者们首先谈到人工智能在医学中的应用。人工智能有可能改进临床实践和公共卫生。但同时,AI的应用使人思考这些应用在多大程度上依赖似乎是不透明的黑箱技术,减少人类进行评估和干预的机会,并使具有重要意义的处境、决策和分配自动化。医生依赖不透明的算法可能影响病人的态度,因为这种依赖并未减少医生的临床工作量,反而使医生成为“AI的女仆”,而实际做出治疗决策的是AI。鉴于这些挑战,在许多有关AI合乎伦理使用的报告、声明和准则中突出地显示了可信任AI的理想。例如欧盟任命的人工智能高级别专家组2019年发表的准则中,将可信任AI作为其他原则和要求的中心目标。在欧盟委员会2020年发表的白皮书《论人工智能:对卓越和信任的欧洲径路》(On Artificial Intelligence: A EuropeanApproach to Excellence and Trust)中,建议将研发AI在其中必须得到追求和实现的“信任的生态系统”作为政策选项。高级别专家组论证说,对AI的信任可以通过四项基本伦理原则来实现,即尊重人的自主性、预防伤害、公平和可解释性(explicability)。对信任的生态系统,关键是要建立一个监督框架,来确保AI应用的安保性以及这些应用符合基本权利和消费者权利,从而进一步促进AI技术得到社会和人们的接受。此外,作为“政策目的本身”,研发这一信任系统意在为公民、公司和公共组织提供法律上的确定性。
信任的性质
然而,作者们认为,可信任AI概念的支持者和批评者都给信任的性质提供了一幅有纰漏的图景。批评者太快地拒绝了信任的概念,部分是因为他们的信任概念是相对狭窄的。反之,支持者则是太快地认为已有的公式化程序就可以保证对AI的信任,或至少保证这种信任是一种理性的选择。而作者们认为,信任和信赖仍然处于模棱两可和风雨飘摇的地位之中,无法通过公式化的办法加以促进。
那么,信任可以加速社会对人工智能的接受吗?经验性证据显示信任AI的形态可能是什么。至今研发AI的具体目的还是不可预见的,但人们对AI将帮助解决若干社会挑战(例如医疗、公共卫生、工业或交通)还是倾注了热情。同时,人们对相关组织以及哪些组织是否能根据公众最佳利益研制和管理AI,抱有种种期望。各种各样的调查进一步提示,公众对AI拥有增加数据驱动的检测以及对隐私的侵犯的潜能持保留态度甚至恐惧情绪。有些受访者担心 “AI有可能减少人类的创造性和思想的自由”并由于人与人之间直接互动的减少而增加孤独感和孤立感。
受信任的实体
作者们指出,正是由于社会对AI的感知是模棱两可的,那就毫不奇怪,要人们信任AI在公共卫生的应用,关键是其有效性和可接受性。在有关AI的利益攸关方磋商以及学术性讨论中,争论围绕着两点:在这种情境(在这里context不是指语言的上下文,而是指客观现实中发生的事情的脉络)下信任的合适对象,以及可信性是否是治理的有效范畴。有人争辩说,信任AI是“概念上的胡言乱语。机器不是可信的;唯有人才能够是可信的(或不可信的)。” Thomas Metzinger, Joanna Bryson,Mark Ryan认为信任唯有置于这样一些实体才是有可能的,这些实体拥有情感状态或可以承担责任。认为技术物体或动物是可信任的实体就是不正当的拟人化。对此论证有两类回应:其一,为了成为一个接受他人信任的实体必须拥有哪些特征事实上是不清楚的。至少如上述作者们所言,信任仅能归于人类行动者,这样它的范围就太狭窄了。例如与导盲犬一起生活并依赖她的犬看到世界和可能的障碍物的盲人,将相当大的信任赋予她的犬。另一个人也许需要AI驱动的假肢走路。那么说信任导盲犬或智能的假肢有什么不对的地方?而且,至少某些人类机构(例如一个社会的司法系统或医疗系统、科学研究机构)原则上也可以是信任的合适对象。
首先,Mark Coeckelbergh等论证说,也许有一些形态的信任是人类行动者之间互动特有的,但也没有理由将信任概念仅限于人之间。反之,对于不同形态的互动和行动者可能有不同类型的信任。即使有些信任不同于一般在人之间的那类信任,它们也仍然是信任。支持这种意见的一个例子是考虑:究竟是授予者的态度还是接受者的特点决定是否存在信任。按照这种假说,一个信任另一个实体的实体意味着首先前者敢于与后者建立一种特殊的关系。
其次,Metzinger, Ryan和其他人认为,涉及人-机器互动的所有这种关系是信赖(reliance)。按照这种观点,信赖一部机器的人是对这部机器如何运转做出了某些假定。实际上,在日常语言中“可信任”与一系列同类概念是交换使用的,如可靠性、可预见性、声誉、透明等。即使可信任AI是一个用词不当的术语,我们也可以询问一下如何应用这些概念于颁发给AI系统执照。对“可信任AI”抱有怀疑,但不必去反对研究可信任AI的方案,不过可以突出这一点:我们在最佳情况下达到的是设计精良和控制良好的技术系统,而不是能够拥有像人那样的行动能力,从而能够成为受到信任的实体。
我们可以再考虑一下可靠性(reliability,那是信赖的合适对象)与可信任。就盲人及其导盲犬而言,人们可以争辩说,决定性因素不仅是那犬是否正确地和有效地完成它的工作。至少同样重要的是盲人所做的信仰跳跃,即认为那犬将令人满意地完成它的工作。即使那犬完成它的工作有效而没有差错——是完全可信赖的——如果盲人不承认那犬将安全地引导她,她将不会前进一步。同样的论点也适用于无生命物体例如假肢:那些瘫痪的人必须对他们的智能的假肢准备采取信仰的跳跃。仅当采取这类信仰的跳跃,才会有信任和信赖。
因此,在可靠性与可信任之间存在着可类比的结构。对于被一个特定的人认为是值得信任的或可信赖的某个人或某样东西,这个人必须朝向受到信任的实体采取信仰的跳跃。在给予信任或决定信赖某个实体时,这个人与相应的实体之间就开始了一种特殊的关系。将信任赋予某一实体涉及某种风险的要素,愿意参与和承诺做某件事,换言之即采取信仰的跳跃。
信任的礼物模型
那么刚才讨论的可以指向人和机器的那些信仰的跳跃是什么呢?
一种办法是设想信仰的跳跃是一种理性的选择。信任某一技术、某一机构或某些流程可被理解为科学、经济与社会之间的一种打赌,而信任或信赖是一笔赌注。
尽管如此,认为信任或信赖产生于一种协商过程仅是理解信仰跳跃的一种方法。必须明白的是,即使将信仰跳跃理解为一种理性选择,但其依赖于事先不清楚和难以计算的条件。
有些学者建议通过考虑这种跳跃中的“礼物”(gifts)要素才能把握给予信任的全貌。研究礼物的理论家引入了交换(exchanges)与礼物之间的一种区别。他们指出,与仅仅是交换不同,礼物并不依赖策略的或计算的考量。反之,赠送礼物是为了赋予某种东西,为行动者之间的共同基础或纽带奠定基础。送礼人给予礼物时不考虑她行动结果的不确定性,被拒绝、利用或误解的不稳定性,还有可能失望,甚至受到损害。尤其是,礼物并不仅仅建立在别人履行互惠义务或者某些策略计算被证明是正确的假定之上。礼物蕴含着一种不对称的群集,在其中,给予的行动不能够是被请求、激励、迫使或乞求的。这与这样一种观念是一致的,即一旦礼物被给予了人和被受礼者接受,就开启了一个协商和交换的社会空间。关键是,启动送礼并不仅仅基于这些考虑。对礼物这种观点也许有助于我们如何理解、维持和加强信任和可靠性所固有的信仰跳跃。
当然,某些背景条件对这种跳跃是否发生至关重要。例如,要使社会信任一项新技术,研发过程必须是公开、包容和透明的。但是,正如礼物理论家的见解所表明的,这些条件也许还不够。而且即使条件是充分的,通过信仰的跳跃所获得的东西仍然是脆弱的。例如,一旦委托人感知到他的善意受到侵犯,就可能撤销信任。对于医疗AI来说,这是一种切实存在的可能性。在医疗AI领域,如果不认真对待围绕该技术的保留意见、担忧和潜在的不稳定因素,之前模棱两可的感知很可能会发展为怀疑、失望和抵制。
使AI可信任?
信仰的跳跃是信任和信赖所固有的,礼物的逻辑似乎把握到了这种信仰跳跃如何采取的重要特征。根据这些观点,AI或基于此的机器代理人(machine surrogates,代人完成任务的机器)如何在设计及其实施方面满足可信任的条件呢?数字医疗系统中的信任条件,以及如何推进“朝向可信任的机器学习”仍未得到充分的探究和争论。当然,欧盟委员会的高级专家组关于可信任AI本身或通过监管框架实施的原则并没有错。严格尊重人的尊严;强烈关注个人自我决定行动;避免基于种族或性别的不当歧视;以及避免他人有机会对那些已经或将会影响人的自由的数据加以控制,必须指导AI的研发、使用和政策制定。
然而,这不过是关于授予信任的一种视角。公式化径路假定对AI的信任或信赖是可以直接操作的,而不是一个脆弱、不稳定和不确定的过程。事实上,最近高级别专家组的“可信任AI人工智能评估列表”就采用了这种公式化径路。这份清单旨在支持研发和部署人员实现可信任AI的关键要求,它似乎是基于将信任理解为是可用一些程序实现的东西。当然,标准、参数和清单与社会产生对新技术的信任有关。高级别专家组提出的原则通过促进这一过程的某些背景条件,起到了重要的作用。然而,仅仅利用某些貌似有理的伦理标准为加速社会接受新技术铺平道路是不够的。
需要谨慎的理由
我们可以设想有三个理由我们需要小心谨慎。
首先,任何旨在解决规范性问题的清单对我们有帮助仅仅在于对解决这些问题提供规范性的参考点。诸如透明度、福祉、非歧视和公平等要求需要有实质性的说明,说明如何使它们明确,以及如何在相互不相容的解读之间做出裁决。
其次,即使政治和社会的利益攸关方对这些要求的必要性有合理清晰的想法,仍然需要仔细考虑在给定的情况下如何实施它们。
再次,即使关键各方已经达成一致并实施了一套可执行的条件,仅此就认为社会对AI或任何其他新技术的信任得到了保证也是不切实际的。实际上,即使所有这些原则都已落实,标准也都符合,并因此这种AI系统也被划入可信任AI类别,但很难保证任何人都会做出信仰的跳跃。信任是否会出现并持续下去仍然是未知数。
不信任的重要作用
以这种方式寻求建立信任也可能会忽视不信任(distrust)的重要性,而不信任以种种错综复杂的方式与信任有关。例如,Katherine Hawley认为,唯有我们也注意到不信任的条件,才能充分理解信任。除了这些概念上的考虑之外,不信任还有重要的实际功能。Pierre Rosanvallon争辩说,在民主社会中,不信任迫使每个人考查谁的利益得到了代表,哪些目标要用哪种方式实现,最后但并非最不重要的是,谁承担负担,谁从新技术中受益。就这样,不信任在政治、社会和技术中发挥着不可或缺的建设性作用。为了稳定和改善这些领域内和跨领域的安排,必须不断询问和审查信任的假定和先决条件。表达不信任有可能启动和推进社会协商和审议进程,并保持为信任铺平道路的信仰跳跃,因为信任仍然是模棱两可和脆弱的。
谨慎处理脆弱性
信任和信赖的态度所固有的信仰跳跃并不是很容易保证或精心制作的。至少欧盟委员会AI白皮书有一些措辞似乎对这种复杂性有所示意,即要建立一个完备的、动态的生态系统以扩大高级别专家组聚焦的狭窄范围,而不应该错误地认为似乎技术本身是信任的所在和决定因素。然而,在本质上,这本白皮书所展示仍然是公式化的径路,试图用能够“建立信任”的监管来补充专家组的“关键要求”。然而,我们必须考虑信任性质的若干其他方面:
第一,即使人们赞同对这种生态系统采取公式化径路目标,这种径路仍然是不完备的。信任的前提是:接受信任的人接受给予信任的人的态度。如果有关例如核能、转基因作物和地球工程(geoengineering)的话题中我们有什么教训可以汲取的话,那就是:新技术以及应对有关它们安全性的不确定性、风险-受益比的概念和评估可接受性的策略需要仔细注意受影响的人的叙述、感受和态度。因此,令人惊讶的是,尽管最近发表了大量关于AI伦理学的报告和准则,但却明显缺乏要求提供探究利益攸关方态度和期望的经验证据。举个例子,考虑一下医疗AI中的黑箱问题,即有关AI如何以及为什么达到给定输出的问题。如果临床医生、公共卫生官员和系统设计者都不能回答这些问题,那么病人和各类人群为什么要信任医疗AI呢?一个尚未得到充分探究的问题是,从病人的角度来看,“可解释性”(explainability)的概念意味着什么?也就是说,对于AI驱动的建议和预测,什么才算AI令人满意的解释?
第二,公式化径路的重点是要对AI产生信任。对此作者们有一个提醒。考虑到社会利益攸关方的态度和观点的多样性,一些期望将不可避免地落空。但是防止信任错位不仅很难实现;它还可能忽视不信任在社会空间中发挥的有益作用。认真对待信任的模棱两可状态那就要放弃这种二分法,即将信任作为一种可取的目标,而将不信任作为一种要避免的东西。当然,人工智能研发者不应该构建因某种理由而不值得信任——比如因为偏见或未能追踪相关事实——的AI。我们要再一次说,试图一劳永逸地说服每一个怀疑论者是有误导作用的。具体地说,不信任驱使和使个体能够放弃技术,限制它的力量,并行使有意义的人类控制。使个体能够表达不信任的态度将是信任的必要(尽管不是充分的)条件。
第三,可控性将是为信任和不信任留出空间的关键。在个体层面上,可控性要求有一些机制来选择是否从医疗AI中受益,或选择放弃和拒绝来自医疗AI的数据。在社会层面,可控性就要求有参与性的和持续性的辩论,在辩论中公众形成他们对AI是否、如何以及为了哪些目的投入使用的意见。
第四,假定信任可以通过监管框架确保或参照公式化标准来直接敲定,这似乎也忽视了参与性和审议性过程在授予信任中的作用。认为一套严格的原则和条例足以治理AI的想法可能过于简单化。在AI系统的特定情境中,透明或公平等要求的实现,唯有在漫谈性、情境敏感性和参与性过程的基础上才能取得成功。因此,为了不受公式化径路的限制,社会需要努力建立一个开放、包容和善于接受的空间,以便在政治、经济、司法、科学和社会领域的界面上进行磋商、协商、参与和厘清事情发生的情境。这些空间的关键在于厘清事实、背景条件、目的和AI的具体使用,在一个公开论坛中,根据利益攸关方的期望进行辩论,在这个论坛中,大家都可以表达不信任和异议,赞同和支持。这样的空间是必不可少的,以便更清楚地了解应该根据哪些原则进行指导,如何确切地了解这些原则的内容,以及如何在实践中解决这些原则之间的张力和冲突。
虽然高级别专家组已经启动了一个对它建议原则的反馈回路,目前已有超过350名利益攸关者参与,但参与不应该局限于这个范围:社会、科学、政治、经济的连续性、审议性的协商过程是对是否和如何采取信仰跳跃获得一个全面视角的一个先决条件。即使在AI问题上达成了社会共识,这也不会代表一个可靠的共同基础,而是继续意味着暂时性和不完备性挥之不去,因为推动重新协商的因素总是可能再次出现。
第五,信任并不能完全理解为是一种打赌,因此设计一个生态系统,让某些期望和承诺成为一个好的赌注是值得的,但它不能保证产生信任。即使是最先进的原则和监管框架,也不能必然产生信任和信赖的基础——信仰的跳跃。
信任是脆弱的
尽管有些人认为可信任AI是概念上的胡言乱语,但我们已经探究了如何理解信任这一概念。人们首先必须认识到,信任是不可能简单地被确保或保证的。即使某些机构、公司甚至个体认为某一个AI系统特别值得信任,个体或团体是否愿意冒险给予它们信任,这个问题仍然存在。它是一种信任的给予者和接受者之间的相互作用,一种关系性的互动模式,在原则上可以留有操控的空间。信任给予后,就会产生一种仍然脆弱的动态互动。在整个过程中,不信任的意义至关重要:不信任不仅仅是失望或破坏信任的表达。相反,在社会协商过程中,不信任也标志着有可能使在社会架构中被倾听到和被认可的那些诉求和权利成为问题。在这个意义上,不信任有一个卓有成效的功能,因为它有助于指出权力、辩护或表达正在出现的转换。
建议
作者们就如何处理信任的脆弱性提出了下列建议:
1)善于接受和容纳,并系统地探究利益攸关方的态度;
2)开诚布公,并强调有些期望会落空,不信任是有成效的,不必避免;
3)随时准备修改(临时性be provisional),强调程序是评议性和开放的,原则不是死板的;
4)向个人赋权和配备可控制的手段和机制;
5)对于社会在采取这些措施后究竟会得到什么,要保持谦逊和透明。
最后,作者们清楚地指出,他们并不认为这些建议是获得可信任AI的充分条件。但要为一个略有不同、但有价值的目标铺平道路,它们是必要的:不是加速甚至保证社会接受AI,而是为负责任的和包容的研发和部署AI提供一条通道和社会基础。
标题:邱仁宗:有制造可信任人工智能的配方吗
地址:http://ai.rw2015.com/auto/7104.html
免责声明:人工智能网为网民提供实时、严谨、专业的财经、产业新闻和信息资讯,更新的内容来自于网络,不为其真实性负责,只为传播网络信息为目的,非商业用途,如有异议请及时联系站长,本网站将立即予以删除!。