随着AI系统在关键决策系统中增加的增加,这些系统呈现的结果变得至关重要。在最近的过去,已经存在结果是错误的并且影响了重要人类问题,其中一些例子是发现偏离特定种族和性别的AI招聘算法。监狱句子的两倍为黑人被告的假阳性率,为白色被告。汽车保险公司由默认分类为25年的男性,如鲁莽的司机。
由于系统失败,由此产生的诉讼和其他社会影响,AI开始吸引很多负面印刷机,以至于今天监管机构,官方机构和一般用户正在寻求互联网系统所作的每项决定的越来越多的透明度。在美国,保险公司需要解释他们的税率和覆盖作品,而欧盟则在一般数据保护条例中介绍了解释权。
以上所有场景都呼叫工具和技术使AI系统更加透明和可解释。
以下是操作道德AI系统所需的一些重要原则。为确保AI模型中的信任和可靠性,必须坚持一些关键原则:
许多从业者都会误可解释的ai(xai)仅在输出阶段应用;然而,Xai的作用是整个AI生命周期。具有重要作用的关键阶段如下。
因此,AI系统需要一致和持续治理,使其在各种情况下可以理解和有弹性,企业必须确保作为AI采用和到期周期的一部分。