假设你在一家银行工作,该银行使用自动化系统来决定贷款申请、招聘或内部晋升。这些系统包括根据一系列标准设计的机器学习工具,根据历史数据集进行训练,然后自由地进行神秘的工作。也许你个人没有得到晋升。,现在,想象一下,过一段时间,你会发现做出这个决定的人工智能是有缺陷的。也许用于训练它的数据有偏差,或者模型设计得不好。也许系统“漂移”了,就像机器学习模型所做的那样(漂移发生在模型的预测能力因现实世界的变化而随时间衰减时)。被一个你可以挑战的人拒绝是一回事。但人工智能有很多灰色地带。不可能总是看到决策是如何做出的。,这一事实是对值得信赖的人工智能的广泛呼吁的基础,也就是说,在开发和使用人工智能解决方案时要透明、公平和负责任。尽管这些工具前景广阔,但负面结果的风险并不牵强。人工智能偏见是有据可查的。这就是为什么现在是组织认真采取具体措施实现有效人工智能治理的时候了。