“公平”,人工智能做得到吗?
2020东京奥运会一如既往地紧张激烈。7月28日体操男子个人全能决赛中,中国选手肖若腾在赛场上的表现,可以称得上是发挥完美、零失误。但最终,肖若腾以88.065分的成绩仅摘得男子个人全能银牌。
遗憾之余我们想问,在追求公平的道路上,还有多少难题未决?
在科技发展如此迅速的当下,体育赛事可不可以应用人工智能技术作为辅助判罚手段呢?
人工智能裁判发展水平
在2013年,NBA就引入Sport VU系统,通过悬挂在每个竞技场天花板上方的6个3D高清摄像头与计算机数据分析连接,每台相机每秒可拍摄25幅图像,各类传感器与超级摄像机相连,动态捕捉、跟踪分析、提取数据,并将处理后的数据输入NBA数据库。NBA的金州勇士队作为硅谷科技大亨和技术狂人们的宠儿,在此系统帮助下,夺得2018年NBA总冠军。金州勇士队也从此被誉为“NBA中的谷歌”。
目前,有关人工智能技术在体育比赛中应用的研究相对较少,主要集中在辅助判罚方面,也就是“鹰眼”在网球、排球等项目中应用。所谓的“鹰眼”,又称即时回放系统。它利用高速摄像机从不同角度捕捉在快速运动中的目标轨迹,确定起止点,辅助裁判评判比赛。“鹰眼”存在的意义在于,它克服了人类眼睛观察能力上存在的缺陷,帮助裁判做出精确公允的判断结果。
2018年俄罗斯世界杯中,赛场采用视频助理裁判VAR系统,其利用视频回放帮助裁判做出决定。这是VAR系统首次应用于足球世界杯这项顶级赛事。小组赛阶段平均每场比赛使用VAR 6.9次,借助VAR使判罚正确率从95%提高到99.3%。
那么类似地,是不是在武术、舞蹈、跳水等体育运动中,使用人工智能就可以降低裁判的主观性,使比赛更加公平公正呢?
实际上,目前人工智能裁判技术离成熟还有很长的距离,体育人工智能技术还远远滞后于计算机科学的发展,存在着一系列软件和硬件匹配的问题。
“算法歧视”
人工智能裁判替代人类裁判最大的难题是让机器“看懂”体育比赛,但反过来,有机会使用了这项技术的我们,往往也很难“看懂”人工智能。
随着算法复杂程度的日益提高,通过机器学习过程形成的决策越来越难以解释AI内部的代码,也就是说,算法存在“黑箱”,导致人们无法控制和预测算法的结果,而在应用中产生某种不公平倾向。
一般情况下,基于算法“黑箱”以及普通消费者对平台定价方案的信任,用户们通常不会质疑自己的购买价格与其他消费者不同,更难以识别出如此隐蔽又“聪明”的价格歧视,而广大消费者就在这种毫不知情的情况下被迫接受各个平台差异化的付费模式,这就是所谓的“大数据杀熟”,也是不公正现象的体现。
目前市场上广泛应用的大多数人工智能系统都是不透明的,加上商业秘密的保护制度,这意味着它们通常能够规避审查,脱离现有的监管体系,在缺乏外部监督的情形下,不仅仅可能增加歧视性操纵,在算法使用者的有意遮掩下,还可能将算法黑箱逐渐迁移至监管的真空地带,导致既有的监管体系无法有效打开算法“黑箱”。
华南理工大学的肖田认为,“期望算法、模型等数学方法重塑一个更加客观公正的现实社会”的“数学洗脑”式想法未免过于一厢情愿。
“算法歧视”的本质是延伸了人类现实世界中的社会歧视。《自然》杂志曾发表社论,认为大数据算法中不容忽视的潜在风险使它们有可能增加偏见,并复制或加剧人类的错误。并指出大数据算法应该承担更多责任,并消除或减少社会歧视,而非加剧社会歧视。也就是说,大数据是一面反映人类社会生活的镜子,算法通过分析历史数据预测未来,而人类直到现在仍然未能消除的歧视和偏见,很可能通过大数据导入算法。
原始训练数据存在偏见,在算法执行时可能将这些偏见带入决策过程。鉴于算法本身不会质疑其所接收到的数据,只是单纯地寻找、挖掘数据背后隐含的结构和模式,如果人类输入给算法的数据一开始就存在某种偏见或喜好,那么算法获得的输出结果也会与人类偏见相同。
一方面,算法的应用具有机制化和广泛性,一个算法模型通常会被重复使用,由此造成的影响就会越来越大。
这方面影响是否可以通过技术本身进行消除呢?亚利桑那大学人工智能实验室研究人员Ahmed Abbasi在《哈佛商业评论》发表了文章,以数据作为切入点,阐释了若干防止算法歧视的方法。其中之一的对策是“过度抽样”,即从人口学的统计方法出发来设计算法模型,提高算法输出结果的准确率。除此之外,“将额外的公平性措施引入机器学习,比如手工放大、缩小少数族群或边缘案例的重要性”也可以用来纠正算法模型产生的歧视。
但仅仅如此仍然不够。因为另一方面,算法偏见不仅会带来计算结果的偏差,还将导致伦理、法律风险,这一方面的矛盾在医疗领域尤为突出。
目前,在医院内实际应用过程中还未有针对AI的伦理审查机制,有医院参照药物临床试验引入的伦理审查机制对医疗AI引入进行伦理审查,但很难做到完全适用。更多医院对医疗AI的引入并未经过伦理审查,也有医院在对患者应用医疗AI系统时尝试用患者知情同意书来规避一些潜在风险。
国家药品监督管理局出台了对医疗AI的相关指导规范,并已启动了认证流程,从范围、风险、临床试验上进行了规定。
当前阶段,医疗AI的最后结果仍需要人工校验审核,医生承担由此对患者诊疗结局的责任。未来临床广泛引入医疗AI后如何实现问责,现在仍不明确。
人工智能法律规制
如同大数据专家、《大数据时代》一书的作者舍恩伯格所说,大数据的特征是追求效率,而不是绝对精确;追求的是相关性,而不是因果性,在现代社会,大数据和算法结合已经颠覆了传统的决策方式。那么,是否存在一种价值中立的平等算法,或者说存在宪法和法律平等保护的“唯一正确答案”,以供法院来遵循或借鉴呢?中国人民大学法学院的丁晓东副教授表示:“这是一个不可能的任务。”
中国社会科学院法学研究所助理研究员徐斌认为,算法应用过程产生的偏见与歧视暂时还未成为中国社会关注的焦点,而且在“弱人工智能”的语境下,针对人工智能展开的种种法律规制都需要和具体的应用场景相结合。由于立法活动不能对快速变化的社会关系进行规范,所以可能我们现在还无法对人工智能采取一般化的法律规制。这意味着,我们目前需要在摸索中构建和完善治理算法歧视的各项法律规制。
目前,我国对包括算法歧视在内的人工智能法律规制仍然处于起步阶段,在监管层面上,目前在针对电子商务的立法中已经有个别条款对算法歧视进行了规范。比如,《电子商务法》的第18条首次明确对“大数据杀熟”做出因应,该条款规定电商平台在进行商品推荐和广告推送的同时也要向消费者展示不包含用户画像的服务内容。此外,《电子商务法》的第40条还对搜索引擎服务中的竞价排名予以规定,它要求服务商必须显著地标明相关信息,实际上该条款对算法控制者提出了信息披露义务。
国务院于发布了《新一代人工智能发展规划》,该指导文件明确要求政府在风险控制和市场监督等方面履行相应的职能,并围绕人工智能建立“全流程型”监管体系。
“通过算法稽查、无监督训练等方式避免或纠正偏见,保持人工智能透明公正是发展的必由之路。”上海交通大学附属儿童医院院长于广军表示。
一方面,监管部门定期审查算法控制者所使用的算法是否符合预定轨道,是否造成歧视性后果。如果自动化算法对受保护群体产生差别性影响,那么监管部门应当将审查结果向公众披露。另一方面,在算法透明性缺失的情况下,监管部门应当审查算法控制者是否提供了必要的访问途径,以便于个人或组织能够审查那些影响公共利益的算法。
公平是相对的,不公平反而是绝对的。人工智能作为一项充满无限想象力的全新技术,不仅没有颠覆这个道理,反而验证了它,甚至给出了算法歧视这个前所未有的难题。面对这样的现实,如果求得公正的方案是无解,那么唯有抢先拥有制定规则的话语权,以更强大的实力取胜。
标题:“公平”,人工智能做得到吗?
地址:http://ai.rw2015.com/industrynews/10115.html
免责声明:人工智能网为网民提供实时、严谨、专业的财经、产业新闻和信息资讯,更新的内容来自于网络,不为其真实性负责,只为传播网络信息为目的,非商业用途,如有异议请及时联系站长,本网站将立即予以删除!。