解锁黑盒子用可解释的ai

经过Vijayaraghavan V,罗希特•乔普拉拉梅什N 2019年12月|简要|10分钟阅读|通过电子邮件发送本文|下载
随着人工智能(AI)系统在未来几年内获得广泛的采用,在未来几年中,对这些系统所作的决定中的可解释性和信任需求正在增加。可解释的ai(xai)解决了阻碍了我们完全信任AI决策的能力的主要问题 - 包括偏见和透明度 - 通过其应用,可以帮助确保所有参与者的更好的结果。
解锁黑盒子用可解释的ai

解锁黑盒子用可解释的ai

未来十年,人工智能将迅速发展,并对全球经济产生相应影响。到2030年,人工智能预计将使全球GDP增长15.7万亿美元。1研究数据显示,采用AI的组织数量自2015年以来的增长率为270%。在过去的一年中,该号码已经增加了两倍。2但是,在商业社会方面仍然涉及人类是否能够对AI建议的可信度充满信心。

这种担忧在机器学习中创造了一种透明度,这导致了Xai的增长。这个新的AI领域为空间带来了责任,以确保AI福利社会而不是伤害它。XAI地址的两个最大问题是AI系统和不透明AI决策中的偏见。

处理AI决策中的偏见

XAI对帮助AI系统和算法固有的偏差是至关重要的,这些偏差由其背景和经验无意地导致展示偏差的AI系统的开发的人们编程。补充说,从成立到部署的牧人AI系统的团队没有代表整个社会,你有一个偏见的数据集和具有固有的系统偏差的算法的配方。

一个这样的例子来自亚马逊,它在一个实验招聘工具中使用了AI,该工具额定工作申请人从一到五的等级,五是最合格的。3.在该公司在其系统中发现偏见之前并不久:该工具对软件开发商的工作更高度评级男性比女性更高度。为什么?由于亚马逊的系统在过去的十年中观察到提交给亚马逊的恢复 - 一个大部分由男性申请人组成的数据集 - 并使用过滤器来判断候选人。

由于这个有缺陷的数据集,亚马逊的系统已经向男人发达了偏见。包括妇女的恢复被评为较低,而女性大学的两名申请人仅被降级为他们上学的地方。亚马逊改变了它的系统,使其成为性别中立,但随着这个计划的发展,没有办法保证未来的系统偏差不会发展。

使用AI系统提供新的透明度水平

多年来,AI系统是黑匣子,有很小的洞察力,为什么机器达到了结论它。IBM WATSON击败了危险的一些最好的人类参与者,被销售给医院作为检测癌症的新伴侣。

当IBM沃森被安置在医院的肿瘤科时,它并没有成功地担当起新的角色。在咨询和治疗的每个阶段,医生和患者都无法信任机器。沃森不愿提供其结果的原因,当结果与医生的一致时,它也无法提供诊断。3.

换句话说,IBM沃森缺乏透明度。然而,人工智能系统做出黑匣子决策的日子似乎即将结束。包括欧洲《通用数据保护条例》(General Data Protection Regulation,简称GDPR)在内的新法律正将“解释权”置于重要地位。XAI提供了更好的机制来满足组织内部审计和其他目的的责任要求。因此,可以更好地遵守GDPR等监管要求。

人类必须能够相信人工智能的决定

对于人类和AI系统进行协同工作,预计在未来两年内将发生,需要对这些机器进行的决策需要高度信任。为此,必须应用XAI,以回答有关AI系统如何做出决定的一些关键问题:

  1. 对于特定的预测或决定,为什么结论达到了?
  2. 为什么不制定替代决定?
  3. 我们如何衡量AI系统的成功或失败?
  4. 作为人类,我们什么时候有足够的信心在AI系统信任他们?
  5. AI系统如何纠正出现的错误?

为了更好地了解我们对AI决定的了解以及如何应用如何纠正这些问题的特定差距,我们将研究两行业:金融服务和医疗保健。在这两个行业中,金融股份很高,正如我们所看到的那样,Xai可以用来更好地了解两个行业的AI决策。

XAI在金融服务中的应用

到2020年,预计在线欺诈检测支出将达到92亿美元。5.欺诈正在发生更快,比以往更复杂,对金融犯罪团队进行模式难以检测,特别是在不断发展的客户行为中。

XAI可以帮助公司了解算法模型如何根据不断变化的客户消费习惯和生活环境进行调整,从而检测潜在的欺诈交易,从而减少欺诈交易,最大限度地减少虚假欺诈标志,并显著降低费用。

“Xai可以通过提供对算法模型的深入了解”,帮助公司帮助公司减少网络欺诈和相关支出“

FINTECH市场的全球AI在2018年的复合年增长率(CAGR)到2019年至2024年之间的复合年增长率(CAGR)将从2018年的14亿美元增长至56亿美元。6.随着更多金融服务和Fintech启动杠杆AI对于各种应用,需要对AI系统制造的决策的透明度仅增加。

例如,如果一个人工智能驱动的系统拒绝了一个人的贷款申请,银行高管应该有能力逐步审查人工智能的决策,以确定拒绝发生在哪里,以及贷款被拒绝的原因。

要提供另一个例子,请考虑一个AI系统确定汽车保险单的预付款。该系统应该能够解释什么是意外历史,汽车类型,里程等 - 为决定的溢价做出贡献。基于这些因素,该系统应能够提供个性化建议,以减少保费费用(例如,每年没有超速票)。

Xai在医疗保健中的应用

由于AI遍布各个行业,其中一个受影响最大的领域是医疗保健。在2019 - 2019 - 2019 - 2019 - 2019年间,预计在2026年,预计将在2026年的增长超过80亿美元的全球ai。7.在医疗保健中,AI正在从机器人辅助手术到临床试验参与者标识符的所有内容中使用。AI通过减少支出和改善患者结果(获取,负担能力和有效性),彻底改变医疗保健部门。

“医疗保健的AI正在通过帮助改善患者结果的同时减少费用来改变该部门”

随着这些积极的好处,仍然涉及AI在医疗保健中的利用率。因此,在这个行业的Xai围绕着信任,保真度,透明度,域名感觉,概括性,分析和一致性建造。

这些支柱如何在实践中工作?让我们看看几个例子。

在第一个例子中,根据患者的记录使用人工智能模型预测心脏病给临床医生带来了一个透明度问题。医生会希望更好地理解模型是如何工作的,以改善他或她的服务。病人还需要给出预测的充分理由。

再举一个例子,领域感知对于急诊部门(急诊科)人口普查预测至关重要,它可以预测在特定时间有多少病人在急诊科就诊。对于医院来说,急诊科的高使用率占了不成比例的就诊人数,而且他们通常是在非紧急情况下就诊,因此这一指标至关重要。8.领域的感觉在ED人口普查预测中很重要,因为医生需要不同的解释,而不是计划人员配备的人。这些解释需要采用适当的语言,并在正确的观众的正确上下文中。

未来几年,对XAI的需求只会加速

AI将继续在每个可想象的行业中彻底改变产品和服务:执法,建设,制造和教育,只是为了命名几个。在这些行业,AI决定正在携带较重的后果,有时候是决定生命或死亡的程度。考虑在医疗保健中使用的AI系统或那些在军事行动中使用的无人驾驶汽车或无人机的系统。

问题在于,我们目前对AI系统如何做出这些决定知之甚少,也知之甚少。也就是说,我们并没有完全掌握这些决策在人工智能系统大量使用的行业中是如何应用的。机器学习算法——尤其是深度学习方法——在我们理解其决策逻辑的能力方面一直是不透明的。

前进,这必须改变。随着人类和机器越来越彼此的工作,我们必须能够相信到位的AI系统。为此,我们必须能够理解这些系统所做的决定。我们信任AI的能力缺乏解释性。我们的期望是,我们正常工作的机器可以按预期执行,并可以解释他们的推理。

公共利益在AI法规(如GDPR)要求有权解释从产业,利用人工智能系统,公司将别无选择,只能更新或采用人工智能工具,将在这些算法去除黑盒,从而提高explainability,减少偏见和改善结果。

参考
  1. https://www.pwc.com/gx/en/issues/data-and-analytics/publications/artificial-intelligence-study.html
  2. https://www.gartner.com/en/newsroom/press-releases/2019-01-21-gartner-survey-shows-37-percent-of-organizations-have
  3. https://in.reuters.com/article/amazon-com-jobs-automation/insight-amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idINKCN1MK0AH
  4. https://www.techrepublic.com/article/beware-ais-magical-promises-as-seen-in-ibm-watsons-underwhelming-cancer-play/
  5. https://www.juniperresearch.com/press/press-releases/online-fraud-detection-spend-to-hit-9-2bn-by-2020
  6. https://www.prnewswire.com/news-releases/global-ai-in-fintech-market-is-forecast-to-exhibit-a-dart-of-26-21-during-2019-2024--300823214.html.
  7. https://www.globenewswire.com/news-release/2019/07/08/1879644/0/en/Artificial-Intelligence-in-Healthcare-Market-Size-Worth-US-8-Bn-by-2026.html
  8. https://www.ncbi.nlm.nih.gov/pmc/articles/pmc5001776/