企业进化指南
箭

偏向于AI对业务增长产生真正的影响。这也是为什么它需要加以解决。

随着世界各地的企业实现人工智能的价值,也有越来越需要承认的障碍,并努力加以补救,最大限度地发挥技术的影响。AI专家分享他们的想法。

强调

  • “人工智能有巨大的潜力,预计将成为我们一生中最大的经济机遇。——吉纳维芙·史密斯
  • “人的参与是非常重要的,因为偏置可以在任何阶段得到介绍。”- Sudhanshu恨
  • “你到逻辑和事实越近,更多的偏见逐渐减弱了。”- 杰夫·卡瓦纳夫
  • “公司正在承认,这些系统的危险危害巨大危害和风险。”- Genevieve Smith.

人工智能(AI)可以改变公司如何运营,在过去几年中,该技术在行业上获得了重要的牵引力。

组织正在设法整合AI实现流程自动化,使它们更有效率,注重创新,并为业务驱动显著的好处。

根据普华永道的报告,人工智能可能有助于接近157000亿$的全球经济,并可能是一个巨大的机会。

从本质上说,有一个巨大的机会。

加州大学伯克利分校哈斯商学院公平、性别与领导力中心副主任吉纳维芙•史密斯表示:“人工智能拥有巨大的潜力,预计将成为我们一生中最大的经济机遇。”

人工智能能够贡献 $ 15.7万亿 到2030年,全球经济

来源:普华永道/减少AI Playbook中的偏见

然而,她注意到,由于商业领袖将处理AI,他们需要装备自己能够处理它可能姿势的挑战。

AI中的偏见 - 它来自哪里

人们可能不知道的挑战可能是在利用技术的一种高级形式,如人工智能的东西。

它出现了很多。

由于某人属于某个社区而被拒绝拒绝贷款或抵押贷款。有人可能会因工作而被拒绝,因为它们属于特定的性别。

这些,和许多这样的现实生活中的实例指向在AI的偏见,这会对如何在社会运作产生影响。

专家说,这些偏见起源于人类。

“我们,作为人类,一直经历偏见。事实上,我们的大脑被偏见了,“Genevieve说,将偏见定义为认知捷径,导致可能导致歧视性做法的判断。

她说:“如果你看看偏见,它的定义是一种倾向,或倾向,或可能是一种偏见,针对或反对某件事或某个人。”

“我们人类一直都在经历偏见。事实上,我们的大脑天生就有偏见。

这些人类偏见与人工智能系统实施中突然出现的偏见有直接的关联。

为了找到答案,加州大学伯克利分校哈斯平等、性别和领导力中心的吉纳维芙和她的同事们深入研究并提出了他们的研究——《减轻人工智能中的偏见:流利的公平领导力手册》。阅读更多

PlayBook说明偏见如何进入AI系统,以及组织如何注意到产生的影响以及可能从技术中获得最大益处的可能解决方案。

专注于负责任的,还是道德AI在这里扮演了重要的角色。

“人工智能伦理的目标是解释技术如何以及为什么会做出某些往往很困难的决定,”Infosys知识研究所全球主管杰夫·卡瓦诺(Jeff Kavanaugh)说。亚搏电脑登录

“负责任的AI意味着公平,负责任,可以以可重复,一致的方式产生导致结果的可解释,可解释和系统的构建系统,”Sudhanshu讨厌,高级主要技术架构师,资源科学。

将数据保存在中心

关键是要理解和认识到AI系统自动判断,以及他们从学习数据进行决策和预测。

人工智能系统不仅从人类的选择、开发人工智能系统的人的观点和知识中学习,而且还从如何操作和使用人工智能系统中学习。

“我们生活在一个歧视,不公平和偏见的世界里。这可以反映并烘焙到AI系统中。所以,它真的很重要,谁正在开发这些AI系统以及他们正在开发的地方,“Genevieve说。

“我们人类一直都在经历偏见。事实上,我们的大脑天生就有偏见。

她说,在预测和决策中使用人工智能可以减少人类的主观性,但它也可能嵌入偏见,导致对某些人群的预测和输出不准确或带有歧视性。

解决的办法是在照顾数据的每一步,从问题的选择开始Sudhanshu说。

“我们选择的问题应该是没有偏见的。然后,当你进入数据集创建,为了训练你的人工智能系统,不同班级的数据应该是很平衡的,”他补充说,这些数据不应该有利于任何一个班级。

“第三是正确的算法的选择。”

IKI的Jeff建议组织尽可能在数据和更多逻辑中投资。

杰夫指出:“你越接近逻辑和事实,偏见就越容易消失。”

“人类参与非常重要,因为偏见可以在任何阶段引入,”苏德汉讨厌。

让人了解情况

专家表明,在循环中的人类时对确保偏差不会蠕动至AI系统至关重要。

Sudhanshu指出:“人类的参与非常重要,因为偏见可能会在任何阶段出现。”他补充说,在跨阶段——问题的选择、数据集的创建、数据的收集和数据的审计,都需要强大的人类参与。

杰夫注意到即使该过程受到控制,始终需要成为人类治理或监督。

据Sudhanshu说,数据的来源、数据的使用情况以及系统在什么情况下可能无法工作也很重要。最后,人工智能系统生成的结果也需要人类验证。

他说:“这样系统就会按照设计原则运行。”他还补充说,学习结果应该反馈给系统。

42%

2019年Datarobot报告发现,目前使用/生产AI系统的42%的组织是“非常”的“非常”关注媒体覆盖偏见AI可能导致的声誉损害。

资料来源:普华永道/偏差的AI剧本

技术可以帮助减少偏见?

“技术起着重要的作用,” Sudhanshu补充说,应确保该数据被用于训练模式应该得到很好的体现,在这种技术可以发挥作用。

Sudhanshu说:“有一些技术可以观察数据集中的数据表示。”他认为,数据质量和是否所有类都被表示也是重要的参数,同时确保AI模型在AI生命周期中的可解释性。

“有框架可以帮助您解释模型的输出。这在证明系统产生的结果中非常非常有用,“他说。

XAI必须在整个AI生命周期中使用

问题选择清晰度

来源:iCET.

偏见及其对组织的影响

虽然世界各地的组织都认识到AI的力量,但它们首先要承认系统中的偏见的存在,因为所产生的成本是巨大的。

Sudhanshu认为,这项技术有很多品牌价值和社会价值,有一些情况下,人工智能的实施没有达到目标,导致对品牌产生负面影响。

吉纳维夫同意。

吉纳维芙表示:“有偏见的人工智能系统可能会给生产和使用它们的公司带来非常大的声誉成本。”她还补充说,破坏人工智能系统可能会产生影响,导致不得不进行损害控制,失去消费者,甚至未来的市场机会。

“公司承认有巨大声誉的损害和风险可能来自这些系统,”吉纳维夫史密斯说。

吉纳维芙提到,微软曾在提交给美国证券交易委员会(sec)的一份报告中指出,有偏见的人工智能系统造成了声誉损害或责任。

“因此,有东西是显示出来。公司是承认有巨大声誉的损害和风险可能来自这些系统,”她说。

而且,这不是所有的外部压力,吉纳维夫指出,道德实践的提高员工的需求发言。

吉纳维芙说:“人工智能对内部冲突或不想要的媒体关注有着巨大的影响,这可能会损害企业声誉和品牌价值。另一方面,通过拥有更多的道德方法、算法等,(组织)可以吸引和留住更好的人才。”

“(组织)必须了解环境及其复杂性。因此,所有利益攸关方都应该意识到道德人工智能。”

在每一步中解决偏见

组织需要有意识地努力解决从原产地到偏差在后期溃疡的情况的偏差。

“(组织)必须了解环境及其复杂性。所以,伦理艾的意识应该与所有利益相关者在一起,“Sudhanshu说。

吉纳维芙建议,企业领导者应该培养一种共同的责任感,并思考组织中的激励结构和权力动态。

虽然道德考虑(可能需要放慢速度)并且首先到达市场可能是紧张的,但对于企业领导者来说,重要的是优先考虑和解决AI偏差的问题,这具有重要的业务影响。

通过在整个这些系统的开发和管理在AI系统解决偏见,企业可以...

  • 降低风险
  • 保持强大的品牌声誉
  • 有一个卓越的价值主张
  • 保持领先于即将出台的立法
  • 在快节奏的行业有竞争力的领导者

来源:偏差在AI剧本

“[道德因素和先入市场]真的可以不一致。企业领导人有更新的激励机制,使得它更鼓励采取暂停,考虑这些伦理问题方面发挥重要作用,”吉纳维夫说,并补充说:

“商业领袖还有机会设定负责任和道德的AI原则和方法,可以决定负责任地部署这些技术的意义,并思考”道德“手段。”

吉纳维夫还提到的与新技术治理对准即可以更好地浏览一个越来越具有挑战性的监管环境,同时保持自己的企业价值取向的重要性。

Sudhanshu补充说:“由于这是一个不断发展的领域,企业对监管世界正在发生的事情有一个非常好的视角是非常重要的。”

“这真的很重要谁在开发这些AI系统,并在那里他们正在研制的”吉纳维夫说。

这样的问题 - 什么是在他们的行业各种监管?而且,有什么事情,他们应该避免?- 应加以解决,使他们没有得到到的的法规错误的一边Sudhanshu说。

吉纳维芙表示:“这些都是公司治理需要考虑的关键问题,董事会也可以发挥作用。”她提到,建立人工智能伦理委员会和伦理,确保负责任的人工智能原则和规范成为公司议程的一部分,这是至关重要的。

除了这些在公司治理层面上减少人工智能系统偏见的行动外,企业还采取了一些重要行动,以支持多元化、多学科的团队,并启用负责任的人工智能模型(见图4)。

团队

支持在算法和人工智能系统上工作的多样化和多学科团队。

促进与人工智能相关的道德和责任文化。

人工智能模型

实践负责任的数据集开发。

建立能够负责算法开发的政策和实践。

公司治理与领导

建立公司治理负责AI和终端到终端的内部政策,以减轻偏见。

聘请企业社会责任(CSR)推进负责任/道德AI和更大的系统变化。

用你的声音和影响力推动行业变革和负责任的人工智能法规。

来源:偏差在AI剧本

Sudhanshu还强调,应该有连贯一致的原则,每个人都应该能够共同遵守。

“还有其他的东西像正确的技术,正确的框架的使用用途,所以不存在偏见在AI的生命周期的任何阶段匍匐的范围内,”他说,并补充说适当的步骤,即使偏差不饶人在,它应该被抓住,被淘汰。

“在知识学院的研究中,专注于AI治理的公司以相当多的利润率优于该公司的其余部分,”杰夫补充道。

然而,吉纳维芙建议,企业也可以从一开始就采用正确的流程和步骤。

“而不是积极雇用他们的复古......从一开始就在这些过程中建立乐于助人和变革,”她说。

组织有机会解决可能出现的偏见。

她表示:“正确把握这一点的企业将获得成功。”

阅读更多+

有关的影片

抓住相机:企业如何导航数字中断

印孚瑟斯是你的目的地。从数字颠覆到人才转型,从商业影响到人类影响,从数字远见者到行业领袖,请锁定我们的频道。当然,也不是只有工作没有娱乐!