AI治理

趋势11:遵守AI伦理作为构建AI系统的潜在原则

随着AI系统在关键决策系统中增加的增加,这些系统呈现的结果变得至关重要。在最近的过去,已经存在结果是错误的并且影响了重要人类问题,其中一些例子是发现偏离特定种族和性别的AI招聘算法。监狱句子的两倍为黑人被告的假阳性率,为白色被告。汽车保险公司由默认分类为25年的男性,如鲁莽的司机。

由于系统失败,由此产生的诉讼和其他社会影响,AI开始吸引很多负面印刷机,以至于今天监管机构,官方机构和一般用户正在寻求互联网系统所作的每项决定的越来越多的透明度。在美国,保险公司需要解释他们的税率和覆盖作品,而欧盟则在一般数据保护条例中介绍了解释权。

以上所有场景都呼叫工具和技术使AI系统更加透明和可解释。

以下是操作道德AI系统所需的一些重要原则。为确保AI模型中的信任和可靠性,必须坚持一些关键原则:

  • 人类参与:虽然建立了AI模型以独立运作而没有人为干扰,但人类依赖是某些情况下的必要性。例如,在涉及执法的欺诈检测或案件中,我们需要在循环中进行一些人类监督,以便不时检查或审查AI模型所作的决定。
  • 偏差检测:一个非偏见的数据集是AI模型的重要前提,以便进行可靠和不可思议的预测。AI模型被银行使用银行的信用评分,恢复缺失和一些司法系统;然而,已经注意到,在某些情况下,数据集在它们中有一些固有的偏见,用于颜色,年龄和性别。
  • 解释性:可解释的ai.当我们谈论合理的预测和特征重要性时,进入图片。可解释的ai有助于了解模型是如何思考的,或者在制作预测的同时强调给定输入的特征。
  • 再现性:每次给出预测时,机器学习模型都应该是一致的,并且在使用新数据测试时,它不应该去Haywire。

许多从业者都会误可解释的ai(xai)仅在输出阶段应用;然而,Xai的作用是整个AI生命周期。具有重要作用的关键阶段如下。

Xai在AI生命周期

Xai在AI生命周期

因此,AI系统需要一致和持续治理,使其在各种情况下可以理解和有弹性,企业必须确保作为AI采用和到期周期的一部分。

订阅

为了让自己更新最新的技术和行业趋势,订阅了Infosys知识学院的出版物亚搏电脑登录

Infosys TechCompass.