环球管理网注:本报告为2016年7月7日由白宫和纽约大学信息法律协会联合举办的“AI Now”人工智能研讨会内容之总结,中文全文由网易智能独家编译。
关于人工智能在社会和经济中的问题多不胜数,本次的“AI Now”主要围绕“医疗”、“劳工就业”、“AI公平”以及“AI道德”准则展开讨论。
之所以选择“医疗”和“劳工就业”作为主要话题,是因为目前这两个领域中AI渗入广泛,AI所能带来的问题在这两个领域中较为突出和明显。而“AI公平”和“AI道德”则是未来大家都关注的问题:AI会有助于世界大同还是会加剧社会不公?以及如何确保AI的利益被全体人类享用?
报告约万字长文,环球管理网保留了主要部分,略经删减和编辑。文章中不仅对AI融入社会后即将面临的四个问题进行了研究,而且给出了一定的解决方案。
Part one:目前关于人工智能的四个关键性问题
我们现在将对目前关于人工智能的四个关键问题进行深入探讨,为读者提供一个了解业内专家见解以及建议的机会。相关探讨包括每个关键问题所面临的挑战、机遇以及可采用的干预措施。
1.社会不公
人工智能系统如何造成偏见以及歧视等社会不公现象?
人工智能系统在高风险决策领域的作用越来越重要——从信贷、保险再到第三方决策以及假释问题。人工智能技术将代替人工决定谁会获得重要机遇,而谁又将被抛弃,由此将会引发一系列关于权利、自由以及社会公正问题。
有些人认为人工智能系统的应用有助于克服人类主观偏见带来的一系列问题,而有些人则担心人工智能系统将会放大这些偏见,反而会进一步扩大机会的不均等。
在这场讨论中,数据将会起到至关重要的作用,引发人们的强烈关注。人工智能系统的运行往往取决于其所获得的数据,也是这些数据的直观反映。其中也包括这些数据的来源以及收集过程中的偏差。从这方面来讲,关于人工智能的影响是与相应的大数据技术密切相关的。
从广义上讲,数据偏差有两种形式。第一种是采集的数据客观上不能够准确反映现实情况(主要归因于测量方法的不准确;数据采集不完整或过于片面;非标准化的自我评价以及数据采集过程中的其他缺陷)。第二种在数据采集的过程中主观上存在结构性偏差(诸如在关于职业数据的采集中有目的性地通过主观性的重男轻女来预测职场成功率)。前一种的数据偏差可以通过“净化数据”或者改进数据采集过程来加以解决。但后一种则需要复杂的人工干预措施。值得注意的是,虽然有很多机构都为解决这种问题做了大量的工作,但对于如何“检测”数据偏差尚无定论。
当采集的数据存在上述偏差时,用这种数据所训练的人工智能系统也会存在相应偏差,其产生的模型或者结果不肯避免的会复制并放大这种偏差。在这种情况下,人工智能系统所作出的决策将会产生差别效应,从而引发社会不公。而这种不公平要比人为偏见和不公隐晦的多。
在以风险控制为主导的行业中,随着人工智能系统的广泛应用,导致人与人之间的细微差别异化对待等现象显著增加,在保险以及其他社会担保行业尤为如此。人工智能系统的应用能够使公司更加有效地通过“逆向选择”来识别特定群体以及个人,从而有效避免风险。
诸如在医疗保险领域,人工智能系统会对投保人的特征以及表现行为进行分析,并对那些被识别为特殊疾病或者是未来发病率高的投保人收取更多保费。在这种情况下,对于那些健康状况不佳且经济能力差的人群尤为不利。这就是为何批评者经常会指责称,即便人工智能系统的预测准确,保险人行为理性,但效果却常常是带来负面影响。
保险业的竞争或许会加剧这种发展趋势,最终人工智能系统的应用或许会加剧这种不平等性。当然,相关反歧视法律法规中的规范性原则能够为解决这些问题带来帮助,虽然这种方法可能不是最有效、最公平的。此外,对人工智能系统进行设计和部署也很重要,但现有的法律框架或许会使相应研究受到阻碍。诸如如计算机欺诈和滥用法(CFAA)和数字千年版权法案(DMCA)都对这方面研究进行了限制,因此当下也需要对现行法规进行改革,确保必要的研究能够顺利进行。
人工智能将受益少数人?
人工智能系统为经济价值的产生带来了新的方式,也对经济价值的分配产生了新的影响。在某种程度上,人工智能系统的价值分配会使一部分群体受益,从而延续或加剧现有的薪资、收入以及财富分配差距。
那些有能力研发人工智能技术的组织将会加剧这种不平等性。据预测,人工智能是一个每年市值达到数十亿美元的庞大产业。开发人工智能技术需要大量的前期投资,其中包括海量的计算资源以及大数据,两者的成本都非常之大。这导致人工智能的开发和应用被限制在一个特定的范围之内。在这种情况下,那些拥有强大数据以及计算能力的企业才能够通过人工智能系统深入了解市场动态,从而获取更多优势,为自己带来“富者更富”的马太效应,带来更多成功。
从另一方面来说,人工智能以及自动化系统能够降低商品和服务成本,如果这些降低的成本能够使消费者受益,那么人工智能就可以缩小贫富差距。在这种情况下,人工智能系统能够提高整个社会的生活水平,甚至于引发一个渐进式的再分配效应。
此外,人工智能也会带来全新的生活方式。在人工智能环境下,那些工作落伍的人有机会需求获取资源的新方式,而工作受到影响的人也能够通过人工智能创造新的就业机会。换而言之,人工智能能够缓解劳动力危机,让人们自由追求生活以及工作新方式,从而提高社会的整体福利。
尽管如此,一些评论家指出,人工智能系统会使得某些工人的技能多余化,那些被自动化所取代的工人不得不寻求新的就业机会。即便这部分工人能够找到新的工作,这种工作也常常是低附加值的,且工作稳定性更低。从这个角度将,人工智能以及自动化系统反而消除了就业机会。
更进一步,如果学习新的工作技能非常昂贵,工人们或许会认为这种职业技能培训与新工作并不成正比。在这种情况下,人工智能系统不仅会增加社会不公,更会带来永久性的失业以及贫穷。这就是为何理解人工智能系统对劳动力的潜在影响是理解其对经济平等性影响的重要方面。
和以往许多技术一样,人工智能技术也往往反映了其创建者的价值观。因此,也可以通过在人工智能开发、部署、维护阶段的多元化来推动人工智能技术的平等性。
当前,在人工智能甚至于整个计算机科学家技术行业,女性以及少数民族从业人员所占比例还很少。这种现状也在一定程度上导致整个技术缺乏包容性,导致一定的偏见,延续或限制相关从业者对其他群体的考虑。
人们也越来越清楚的认识到,人工智能领域从业者的多样性有助于人工智能系统满足不同人群的利益。为了解决偏见、歧视和不平等问题,人工智能团队需要一个更广泛的视角。
2. 劳工关系
目前有关就业和AI系统的讨论往往都集中在对人们未来将会失业的担忧上。最新的研究表明,还存在更加复杂、影响更加直接的问题,这些问题不仅仅影响劳工市场,还影响雇主与雇员之间的关系、权力动力学、职业责任和工作在人类生活中的角色。
许多传统经济研究人员正在密切追踪美国国内劳工市场和企业机构,以此来考量AI系统的影响。这类研究可带来非常重要的定性数据,能够促进对宏观经济趋势和劳工供需状况的理解,比如未来将会有多少工作岗位。
与此同时,社会科学研究则评估工作属性和工作动力的改变正在如何改变人们的日常生活体验。这两个研究视角对于衡量AI系统短期对劳动力的社会影响和经济影响都必不可少。
AI会影响工作岗位需求吗?
自动化技术在经济中的角色远非新议题,事实上对于AI系统影响的考虑是出现于长期以来的讨论。
虽然表面来看劳工需求会随着自动化技术的日益普及而下降,毕竟需要做的工作将会很有限,但也有经济学家并不这么认为,他们称该观点是“劳动合成”谬论。他们指出,随着一个行业的生产力的提升(由于自动化技术或者其它因素),新行业也会诞生,因而会产生新的劳工需求。
例如,1900年农业在美国劳动力中的占比为41%,到2000年该占比只有2%。两位劳工经济学家大卫·奥特尔(David Autor)和大卫·多恩(David Dorn)称,即便出现这种剧变,失业率长期来看并没有出现上升,就业人口比率实际上反而出现提升。另外两位经济学家詹姆斯·亨廷顿(James Huntington)和卡尔·弗雷(Carl Frey)则给出了可怕的预言:AI系统将会大大减少工作岗位。
还有人在争论劳动市场的变化和波动是否与技术进步有关,是否只是因经济政策而出现。这类看法聚焦于现有的法律体系和监管机制对于AI和自动化系统的发展应该担当什么样的角色。例如,罗伯特·戈登(Robert Gordon)认为当前的创新浪潮其实并没有它们表面上看起来那么具有变革性。不少持相反意见的人则称,劳动市场正因为技术变化而发生重要转变。这些人包括约瑟夫·斯蒂格利茨(Joseph Stiglitz)和拉里·米歇尔(Larry Mishel),他们认为,要保护劳动力,就必须要对AI和自动化系统相关的监管和其它政策变化上保持高度的重视。
奥特尔、多恩等经济学家发现“就业两极分化”现象正变得非常明显,即中等技能岗位在减少,而高等技能和低等技能的岗位则在增加。虽然未来可能会出现新的岗位,但它们往往都收入比较低,不受欢迎。
例如,许多支持AI系统的工作事实上需要由人类去完成,他们需要维护那些基础设施,照顾系统的“健康状况”。这种劳动力往往不大显眼,至少从媒体的报道和人们对AI的印象来看是这样。因此它往往受到低估。这类工作包括负责清洁办公室和维护工作的清洁工,负责维修服务器故障的维修工,以及有位记者所说的“数据卫生工”(能够“清理”数据,为数据分析做好准备)。
AI系统对劳动力的影响相关的问题应当不仅仅包括未来是否会创造出新岗位,还应当包括那些岗位会否是能维持生计的体面工作。
此外,有关AI系统和劳工市场未来的讨论通常都专注于传统上被认为是低收入的工人阶级岗位,如制造业、卡车运输、零售或者服务工作,但研究表明,未来各行各业都将受到影响,其中包括需要专业训练或者高学历的专业工作,如放射学或者法律。关于这一点,未来将需要解决职业责任和义务方面的新问题。
AI将会如何影响主雇关系?
近年来,研究人员开始研究依靠大数据的AI和自动化系统(从Uber到应用于大型零售商的自动化调度软件,再到工作间监视)正在如何改变雇主与雇员之间的关系。
研究发现,虽然这类系统可以用来赋能员工,但该类技术也可能会引发大问题,如剥夺员工权利,加剧就业歧视问题,以及催生不当劳动行为。
例如,AI驱动的劳动力管理和调度系统正越来越多地被用来管理劳动力,助力按需经济的增长和“朝不保夕族”(precariat)的崛起。虽然部分研究人员称恰当的调度能够带来很有价值的弹性,但到目前为止,更多的研究发现受该类系统管制的员工存在情绪紧张和缺乏安全感问题。
由这类系统管理的员工的不利体验包括长期不充分就业,财务状况不稳定,缺少传统全职员工能够获得的福利保障,无力为家庭或者自我照顾(又或者因为忍受不了该类工作往往要求的随时待命性质而寻找别的工作)做规划。此外,受这些问题影响的员工更多是女性和少数族裔。
另外,基于AI系统的新远程管理模式会加大将“系统”所做的严重影响员工的决策归责于雇主的难度。因此,员工更容易受到剥削。
例如,像Uber这样的由大数据和AI驱动的平台会远程控制行驶路线、定价、报酬甚至人际交流方面的标准——这些决定传统上说通常都有人工亲自管理。
除了模糊化特定决策的性质和逻辑之外,这类远程管理通常并不被认为是“雇员管理”。
由于这些新管理模式不大符合现有的监管模式,像Uber这样的公司会将自己标榜为技术公司,而非雇员的管理者。按照这一理念,这类公司将自己视作促进连接的平台,因此不会像传统雇主那样对雇员负责。依照这种模式,雇员最终要承担权益保障(如减轻税项负担、医疗保健和其它的劳工保障)和潜在救济模式的就业带来的风险。
3. 医疗健康
像我们现在所看到的大多数已被应用到医疗健康领域的AI系统,它们几乎都依赖于大型数据库,这些AI系统会通过各种复杂的统计模型和机器学习技术,从其所收集到的海量数据中,自动提炼出各种重要信息。
那些已投入使用的医疗数据信息源(仍处在不断增长当中)——包括电子病历(EHRs)、临床和医保数据库、从各类消费电子产品和App上传来的健康数据——目前已经被大量地应用到AI系统的实践,这些AI系统具有极大的能改善社会医保水平的潜力。
无论是临床诊断、病人护理,还是施药;无论是药品生产、组织管理,还是医保信息交互,这些AI系统都为医疗从业者的工作起到了极大的助力。
AI是如何被融入到医学研究和医疗健康的?
将AI系统融入到医学研究,具有令人极为欣喜的应用前景,它能帮助我们更好地理解那些疾病的病理,帮助我们开发出更多的新式治疗手段,实现更为精准的医学诊断,甚至还能私人订制地为个人生产出特制的药品。
然而,鉴于目前仍存在的将AI应用到医疗领域的局限和偏见,它们或将阻碍这些应用前景的实现,而这就需要研究人员更为细心谨慎地去探索这一前沿的技术。
目前,这些将AI技术应用到医疗领域的局限,包括有不完整或不准确的研究数据,即未含盖到特定的少数群体,除此之外,尤以美国医保系统为代表的复杂医疗补贴激励制度,也将在一定程度上阻碍到了AI医疗技术的应用。举个简单的例子,目前的一些医疗补贴制度会更支持个别种类的药物研发,或是更倾向于补贴个别治疗方案。
医疗研究数据时常会表现出客观、通用的属性,但在实际应用的过程中,这些研究结论往往会表现出片面、暂时和只针对某些团体或病症的特性,而AI系统根据这些“片面”数据所分析和建立出的模型,可能会引出、建立或是衍生出一些错误的猜测。
所幸的是,这样的错误情况是可以避免的。如果一个AI系统所收集的数据不存在上面我们所提到的那些瑕疵(假设这点是可以被保证的),或是该AI系统所使用的数据框架像随机对照试验方法(randomized control trials, RCTs)或是其它公共医疗数据库那样,具有自行矫正这些问题的能力,能减小其内在错误偏差的话,它就能有效地避免重大误差的出现。
假设这些误差微小到可被忽略,将AI系统融入到医疗健康研究和临床实践中心的一个最有可能实现的应用前景,是让AI去协助医生进行病症诊断,从海量数据中发现规律性的模式,从而帮助医生更早地揪出那些藏匿在身体深处的“狡猾”病灶。
事实上,AI系统目前已经可以完成对部分病症的诊断了,这其中就包括了白血病。在检查和临床护理环节,AI系统在一些情况下,也有几率能减少,甚至预防误诊情况的出现。须知,误诊是可以致命的,AI辅助诊断技术的价值之高,可想而知。
在这方面,AI系统在诊断和确立病症的环节上,正扮演越来越重要的角色。然而,也正是因为如此,研究人员必须警惕,要避免出现因AI错误猜测,而推断出“正常”或是“平均”等健康状况描述的情况的发生。
类似的,我们只需要回顾一下美国在1973年前的那段历史,就想象出当AI出现误诊时,会发生什么样惨剧。彼时,美国精神病学协会(American Psychiatric Association)将同性恋作为一种精神疾病列入到了它权威的精神病诊断和统计手册当中,这样一来,悲剧的出现就不可避免了。
同样的,当AI系统被直接地应用到病人护理时,它们将涉足到诊断和临床管理的方方面面,而这也时常将隔开看护者同病人之间的距离,所以,适当地明确出AI“专业程度”的局限,是非常重要的。
一名人类外科医生在上岗之前,会先上医科大学,在经历过层层严苛的考核后,他们的医术才能获得世人的承认,然而,我们要如何造出一个出色的AI大夫来协助,或者甚至是取代一个有“文凭”的人类名医呢?
这样一个AI医疗系统意味着它需要具有绝对准确的专家级权威水平,不会出现误诊或是诊断偏颇的情况。这种级别的信任代表着这些AI系统无论是在出厂的能力评估上,还是在检测其极限能力上,都可以接受更少的审查,而这也将制造出那些,目前还未被医学伦理框架所囊括的新型伦理问题。
除此之外,我们还需要关注类似于这样的AI医疗系统在医保领域内被布置于何处,使谁受益等等这样的问题。尽管让医疗健康惠及所有人,让大家都能负担得起确实是一种需求,但已有大量的证据表明,取得医保和健康数据的权限并未被公平地分配,在多数情况下,穷人、非白人和女性群体常常处于劣势地位。
让AI系统融入到医保体系,非但不会根除这些系统性的不平等问题,反而还有可能会放大这种问题的严重性。虽然AI系统可以实现合适的定制化医疗护理,让各式各样的人都获益,但它也可以被故意培养成过滤掉那些之前就常常被忽视、被服务不周的外围群体。
如果这些群体没有被给予适当的考虑的话,这反过来也将影响到AI系统所构建出的预测模型。AI预测模型会被那些能用上这种AI系统的特权群体所上传的健康数据所不断的固化,从而只能有效反馈出富人的“健康状况”,并最终构建出一个会完全排斥“边缘人群”的健康与疾病的整体认知模型。
鉴于目前美国存在的医保财政的乱象,这样的忧患确实是值得人们投入更多关注,就像这样的乱象在过去影响到医疗技术的整合一样,它也必然会在未来影响到AI医疗系统的布置和效用。
基于这样的考虑,人们在推动AI医疗系统不断发展的同时,也在不断努力地去降低AI医疗系统造价,而这也将促使那些利益相关者(比如政客、保险公司、健康机构、制药企业、雇主和其他人)把他们的注码,寄托于大规模的健康数据收集和AI系统的研制上,以此来帮助他们更好地维护他们在模型研发和医保护理上的经济利益。
然而,将这些信息技术和AI系统整合到医院和其它医疗健康体系所需要的关键培训、资源和那些正在进行当中的必要维护,并不总是能够得到支持,或者说并不总是能处于“不差钱”的状况。而这种情况其实已经导致了技术资源和技术能力的分配不均。
训练AI所需的数据收集和病患观察将如何影响到个人隐私?
AI系统对数据量的极度依赖和对病例观察的需求也自然而然地催生出了对病人隐私、秘密和安全保护等等急迫的问题。
目前,对AI医疗系统高性能期许的实现依赖于通过各式各样的设备、平台和互联网来源源不断地获取到海量的病患数据,而这一过程也不可避免地会涉及到某些人或机构会在利益的驱使下,做出出格的监视行为。
与此同时,像同态加密(Homomorphic encryption)、差分隐私(differential privacy)和随机隐私(stochastic privacy)这样的技术带给了我们应对这些乱象现象的新的希望,它们可以让AI系统实现在不“查阅”数据的情况下,直接地去“调用”它们。虽然就目前来说,这些新技术仍处于研发的初步阶段,连一个通用应用程序都还没有被开发出来,但它展现出能令人鼓舞的应用前景。
除此之外,随着近期美国政府对循证医学(Evidence ?based medicine)的推广和《平价医保法案》(Affordable Care Act)已由原先的按服务收费转变至按治疗行为收费的这一变化,监管行为背后所涉及到的经济利益问题和对敏感健康数据消费的问题,都在不断地加剧恶化当中。
至于那些保险公司,在AI系统入局的情况下,其所需面对的对验证交叉补贴方案合理性的呼声的压力也在与日俱增。
举个例子,尽管美国政府在2008年就颁布了《基因资讯平等法》(Genetic Information Nondiscrimination Act),但出于对保险分层管理的需求,保险公司对能获取到遗传危险率信息的兴趣也在日益增长。事实上,差别定价目前已经成为了数据分析供应商的一项业内通用做法,而这反过来也进一步地巩固和加剧了目前的不平等现象。
此外,“智能设备”和其它能让AI系统获取到所需数据的联网传感器也已让追踪和监视变得无处不在,而这也将目前的那些隐私保护政策的覆盖范围不断地拓宽,像《医疗健康可携性和责任法案》(Health Insurance Portability and Accountability Act)就是在这一考虑下的产物。
随着AI系统被越来越多地融入到健康和电子消费产品上,病人因细分数据而被重新定义,或是由代理数据来预测出他们的身份、所患疾病和其它健康信息的风险,正不断地升高。
除此之外,那些驱动这些数据收集设备的软件也常常是为私人所持有,而不是开源的(不受外部审查审计的约束)。虽然,美国政府最近签署的法令对《数字千禧年著作权法案》(Digital Millennium Copyright Act)中的相关条例进行了免除,让审查外部医疗设施的代码成为可能,但更为重要的或许是审查那些内部医疗设施,然而这种行为并未被这一豁免权所囊括到。
总的来说,相关业内专家们都已经对在物联网设备上,布置联网技术所潜在的重大安全隐患做过警告了,在这些警告中,有很多就是专门针对医疗设备安全问题的。
AI将如何影响患者和医疗保险供应商?
那些已被实现或是有望被实现的AI技术,对健康护理系统的构建有着深远的意义,对需要照顾的病患,或是那些虚弱体质的人也意义非凡。
人们对于AI系统,进行了许多美好的构想,寄予它们护理工作调解员的角色,并相信它们在未来有可能完全取缔了护工的工作。这一转变前景乐观、经济,且高效,很可能会改善患者与医生或其他护工之间的关系和他们的工作方式。
能展示AI系统具有代替或者协助人工护理工作的潜力的例子非常之多,包括有机器人外科医生、虚拟管家和陪护机器人等等。这些例子逐渐引发了一些争论,比如代理照顾和陪同护理的社会意义是否可以让非人类的机器来代替?当机器替代人工时,它是否能不仅仅只是增强人工的专业性,而能做到真正的独当一面呢?当我们认为一台机器有能力“护理”病人时,它具备了哪些“护理”能力呢?我们又是如何定义“护理”这个词呢?这些我们以为的“以为”是否是站在病人权益的角度上,去考虑的呢?
就目前来说,虽然陪护机器人在取代人工护理工作上,还未取得什么明显的效果, 但由AI驱动的APP和联网设备能让病人取回对自己健康管理的控制权的前景正在与日俱增,而这也预示着AI医疗系统同病人的直接交互,正处于早期发展阶段。。
这种人与AI的直接交互其实也是一把双刃剑。一方面,它能让病人康复地更快、对自身病情有更多的了解。另一方面,这种变革也需要他们担负更多的风险。这些风险包括它可能会误导病患,影响他们可能会接收到的信息的质量和准确性,而这也是美国联邦贸易委员会(FTC)在近些年来,所要传达给我们的担虑。
除此之外,这些搭载了AI的APP也可以将原先医疗从业者所需要承担的责任转移病人本身,但这对病人来说不见得是什么好消息,因为并不是所有人都有时间、财力和AI技术获取渠道,来实现对他们自身健康的护理。
那么,什么样的患者能优先享受到这些仍在不断改进当中的AI医疗技术的红利呢?对于那些“装备”不良却想管理和维护自己个人数据的病患来说,他们所接受到的健康看护是否是不合格的呢?
再者,那些搭载了AI技术的应用的设计者和研发者在这一社会演变过程中,又需要扮演什么新的角色?需要承担哪些新的责任?
那些始终处于风口浪尖的医学道德伦理,又将如何融入到这些与众不同的,新式工程技术的载体上呢?
4.道德责任
AI系统的部署不仅将引发新的责任,也将对职业道德、研究道德、甚至公共安全评估等现有领域造成挑战。
近来,人们对道德和AI系统的讨论倾向于优先考虑很久以后可能会出现的AI系统,例如,“奇点”的来临,或超级智能的发展。
也就是说,这种讨论往往并未关注AI系统在短期或中期内会产生的道德影响,例如,当前已投入使用的大量任务型AI系统引发了新挑战、可能加剧不平等、或从根本上改变权利机制。
当代AI系统上能够执行各种各样的活动,这类技术会引发各种隐性和显性后果,因此可能对传统伦理框架提出新挑战。AI系统被部署在人类社会中时或许会引发不可预测的相互作用和后果。
在资源配置以及让权力和信息集中或重组的潜力方面,我们迫切需要处理一些关键问题来确保AI技术不会造成伤害,特别对于已被边缘化的群体。
我们如何向AI授予权力或委派AI展开决策?
AI系统在社会和经济领域内的融合需要我们把社会问题转变为能够被AI解决的技术问题。这种转变无法保证AI系统产生的错误会少于它将取代的现有系统。瑞安 卡洛(Ryan Calo)指出,人们通常以为,AI系统(如,自主驾驶汽车)犯的错误将少于人类。实则不然。复杂程度不高的AI系统无法避免地会犯一些人类不会犯的新错误。
在许多领域中,伦理框架往往需要产生记录,例如,病历、律师的案卷、或研究人员向机构审查委员会提交的文件。此外,人们还面向患者、客户或感觉自己遭遇了不公正待遇的对象设立了补救机制。
当代的AI系统往往无法提供此类记录或补救机制,要么因为技术上无法实现,要么因为设计者并未考虑此类记录或机制。
这意味着,受到影响的特定群体或个人往往无法对AI或其他预测系统的决策进行检验或质疑。这会恶化各种形式的权力不对等现象。而权力不对等是一个很重要的伦理议题。
当受到影响的个人无法对这类自动化决策展开检验、质疑或上诉时,他们就处在了权力相对缺失的位置上。
这带来的风险是,AI系统不仅将削弱弱势群体的质疑权力,而且将赋予设计方更多定义道德行为的权力。这种权力能够以十分微妙的形式呈现出来。例如,各种自动化系统往往被用来从某种方向来影响或“微调”某些个体,而很大程度上扮演决定或支配角色的是设计部署此类系统并从中获利的一方。
若要从零开始构建AI系统,以实现纠正上述不平衡现象等目标,这本身就要受到实力差距的限制。打造和维护AI系统需要大量的计算资源和大量数据。而拥有海量数据和计算资源的企业相对缺乏这类资源的企业拥有更多的战略优势。
我们如何在现有的各种行业中应对与AI相关的伦理问题?
随着AI系统在不同行业环境(如,医学、法律、金融)中的融入愈加深入,我们还将面临跨越不同行业的新的道德困境。
例如,AI系统在保健环境中的应用将对医疗专业人员道德准则中秉持的核心价值(如,涉及保密、护理的连续性、避免利益冲突以及知情权)造成挑战。
随着医疗业的不同利益相关方推出了各种各样的AI产品和服务。对这些核心价值的挑战可能会以全新的和意想不到的方式呈现。
当一名医生使用的AI诊断设备在受训时使用了一家医药公司的药品试验数据,而这家公司是某种药物处方的既得利益者,那么这位医生应如何遵守避免利益冲突的誓言?
虽然这是个假想的情况,但这点明了在修订以及更新职业道德准则的过程中必须解决的棘手问题。
同样地,负责管理AI研发及维护的专业协会也有必要考虑采取相应的措施。例如,美国人工智能协会(AAAI)应制定相关的道德准则,而美国计算机协会(ACM)以及电气和电子工程师协会(IEEE)需认真修订相关的道德准则。ACM和IEEE现有的道德准则已拥有20年以上的历史,不用说,这些准则不仅无法解决与人类机构、隐私和安全相关的核心问题,而且也无法预防AI和其他自动化决策系统可能产生的危害。随着AI技术进一步被整合到重要的社会领域中,这一点正变得越来越重要。
尽管更多的高等教育机构在技术和科学专业的教学中已开始强调职业道德的重要性,但这番努力仍处在初期,还有进一步的拓展空间。而民权、公民自由和道德实践等领域的知识还未成为学生们毕业时必须掌握的要求范围。此外,有一点是值得注意的,若有人违背医药界道德准则,他需承担的惩罚包括失去行医权力,这一点并不适用计算机科学或许多其他相关领域。
目前还不清楚大多数计算机科学家是否熟知ACM或IEEE准则中的核心内容。我们也不清楚,企业雇主是否会因为其他鼓励或压力因素而选择不遵守这种不具约束力的法规。因此,从实用角度看,除了仅仅对伦理框架进行改写和更新外,有必要关注范围更广的鼓励机制,并确保对伦理准则的遵从并不是事后才想起的事项,而是相关专业领域需要关注的核心问题,以及AI领域学习和实践中不可或缺的组成部分。
Part two:阐述建议,如何避免以上问题
下面我们将进一步阐述上面简要提到的建议背后的基本原理。
1、多元化和拓宽AI开发和部署所必需的资源——如数据集、计算资源、教育和培训的使用,包括扩大参与这种开发的机会。特别是关注当前缺乏这种访问的人口。
正如在AI Now Experts研讨会期间很多人提到的,这些开发和培训AI系统的方法费用高昂并只限于少数大公司。或者简单地说,在没有大量资源的情况下DIY AI是不可能的。培训用AI模式要求有大量数据——越多越好。同时还要求有巨大的计算能力,而这费用不菲。这使得即使要进行基础研究都只能限于能支付这种使用费用的公司,因此限制了民主化开发AI系统服务于不同人群目标的可能性。投资基本的基础设施和使用合适的培训数据,有助于公平竞争。同样,开放现有行业和机构里开发和设计过程,以多元化内部纪律和外部评论,可帮助开发更好服务和反映多元化环境需求的AI系统。
2、升级使公平劳动行为具体化的定义和框架,以适应AI管理部署到工作地时出现的结构性变化。同时研究可替代的收入和资源分布、教育和再培训模式,以适应未来重复性工作日益自动化和劳动及就业态势不断变化。
在AI Now Experts研讨会上,奥巴马总统首席经济学家贾森·福尔曼(Jason Furman)指出,在美国每小时工资只有不到20美元的工作,83%都将面临自动化的严重压力。对于每小时工资在20-40美元的中等收入工作,这个比例也高达31%。这是劳动力市场一次巨大转变,可能导致出现一个永久失业阶层。为确保AI系统的效率在劳动力市场不会导致民众不安,或社会重要机构如教育(有一种可能是教育不再视为就业的更好途径)的解散,在这种巨大转变出现,应该彻底研究替代性资源分布方法和其他应对引入自动化的模式,制定的政策应该为组织良好的各种落实测试开路,控制可能导致的灾难性后果。
除了“替代工人”外,AI系统也对劳动力市场也有其他多重影响。例如,它们改变了权力关系、就业预期和工作本身的角色。这些变化已经对工人产生深远影响,因此在引入AI系统时,在考虑如何表述公平和不公平做法上,理解这些影响很重要。例如,如果开发实际作为管理层行事的AI系统的公司,可被视为科技服务公司,与雇主不同的是,职员可能不受现有法律保护。
3、在设计和部署阶段,支持研究开发衡量和评估AI系统准确性和公平度的方法。同样地,也支持研究开发衡量及解决一旦使用出现的AI错误和损害的方法,包括涉及通知、矫正和减轻这些因AI系统自动决策导致的错误和损害的问责制。这些方法应优先通知受自动决策影响的人们,并开发对错误或有害判断提出异议的方法。
AI和预测性系统日益决定了人们是否能获得或失去机会。在很多情况下,人们没有意识到是机器而非人类在做出改变人生的决定。即使他们意识到,也没有对错误界定提出异议或拒绝有害决策的标准流程。我们需要在研究和技术原型化上投资,确保在AI系统日益用于做出重要决策的环境中,确保基本权利和责任受到尊重。
4、澄清无论是反电脑欺诈和滥用法案还是数字千年版权法案不是用于限制对AI责任的研究
为了进行对检验、衡量和评估AI系统对公共和私人机构决策的影响所需的研究,特别是有关如公平和歧视的关键社会关切,研究人员必须被清楚地允许跨大量域名并通过大量不同方法测试系统。然而,某些美国法律,如反电脑欺诈和滥用法案(CFAA)和数字千年版权法案(DMCA),规定与电脑系统甚至互联网上公开可访问的电脑系统“未授权”互动为非法,可能限制或禁止这种研究。这些法律应该澄清或修改,明确允许促进这种重要研究的互动。
5、支持在现实环境中AI系统对社会经济生活影响的强大评估和评价方法的基础性研究。与政府机构合作将这些新技术集成到他们的调查、监管和执法能力中。
我们当前缺乏对AI系统社会经济影响评估和理解的严格做法。这意味着AI系统在融合到现有社会经济领域,部署在新产品和环境中,却不能衡量或精确计算它们的影响。这种情况类似于进行试验却不愿记录结果。为确保AI系统带来的益处,必须进行协调一致的研究开发严格的方法,理解AI系统的影响,当使用这种方法时可帮助形成跨部门和政府内部的标准做法。这种研究及其结果可比作早期预警系统。
6、在与这些人联合开发和部署这种系统时,与受自动决策应用和AI系统影响的社区代表及成员合作,联合设计可问责的AI。
在很多情况下,这些受AI系统影响的人将是对AI系统环境和结果最权威性的专家。特别是鉴于当前AI领域缺乏多元化,那些受AI系统部署影响的人实际上从事提供反馈和设计方向,来自反馈机制的这些建议可直接影响AI系统的开发和更广泛的政策框架。
7、加强行动提高AI开发者和研究者的多元化,拓宽和融合所有观点、环境和学科背景到AI系统开发中。AI领域应该也结合计算、社会科学和人文学,支持和促进针对AI系统对多个观点影响的跨学科AI研究。
计算机科学作为一个学科领域缺乏多样性。特别是严重缺乏女性从业者,在AI里这种情况更为糟糕。例如,虽然有些AI学术实验室由女性掌管,但在最近的神经信息处理系统大会上,与会者只有13.7%是女性,这次大会是该领域最主要的年度大会之一。缺乏多元化的圈子不大可能会考虑这些不在其中人的需求和关注。当这些需求和关注成为部署AI的社会经济机构的中心时,理解这些需求和关注很重要,AI开发反映了这些重要的观点。关注开发AI人群多元化是关键,除了性别和代表受保护人群外,包括除计算机科学外各种学科的多元化、建立依赖来自相关社会经济领域学习的专业知识的开发实践。
在计算机科学之外和计算机科学之内AI子领域的社会经济领域,进行AI影响的彻底评估将需要多数这种专业知识。由于很多环境下AI被集成和使用——如医学、劳动力市场或在线广告——本身是学习的丰富领域。为真正制定AI影响评估的严格流程,我们将需要跨学科的协作,建立新的研究方向和领域。
8、与专业组织如美国人工智能进步协会(AAAI)、美国计算机协会(ACM)和电气及电子工程师协会(IEEE)合作,更新(或制作)专业道德准则,更好地反映在社会经济领域部署AI和自动化系统的复杂性。为任何想掌握计算机科学的人开设公民权、公民自由权和道德培训课程,反映了教育中的这些变化。同样,更新专业道德准则约束引入AI系统的专业人士,如适用于医生和医院工作者的道德准则。
在医学和法律等职业中,专业人士的行为受控制可接受和不可接受行为的道德准则约束。专业组织如ACM和IEEE确实制定了道德准则,然而这些准则过时了,不足以解决复杂社会经济环境中使用AI系统带来的具体并常常是微妙的挑战。虽然医生确实遵守了约束他们对待病人行为的职业道德,但AI系统的发展,如帮助医生诊疗和治疗病人,出现了现有职业道德准则不总是能解决的道德挑战。职业准则和计算机科学培训必须更新,以反映AI系统建造者对因使用这些系统遭受不同程度不利影响的人所负有的责任。在AI用于增强人类决策时,职业道德准则应该包括在AI系统受到利益冲突左右的时候鉴定责任的保护措施。
登录后发表你的伟大言论!
立即登录 注册