AI需遵循哪些道德原则
伴随数据科学变得越来越复杂,消费者渐渐要求更个性化的客户体验,AI是帮助企业更好地了解客户和受众的工具。不过,即使AI拥有世界上所有的潜力,假如我们无法弄清楚怎样解决仍然存在的道德挑战,那么这种全部潜力可能永远无法实现。
伴随这项技术的发展,所有寻求实施AI战略的领导者都应该牢记一个问题,就是怎样在合乎道德和负责任的情况下在企业内最大限度地运用AI。
为了实施和扩展能够带来正投资回报的AI功能,同时最大限度地降低风险、减少偏见并推动AI实现价值,企业应遵循以下四项原则:
1.了解目标、目的和风险
大约七年前,某组织发布了他们所谓的“新兴技术的炒作周期”,预测了将在未来十年改变社会和商业的技术。AI是这些技术中的一项。
这份报告的发布,促使企业争相向分析师和投资者证明自己精通AI,很多企业开始将AI战略应用到自己的商业模式中。然则,有时候这些策略被证明执行不力,只能作为现有分析或数字目标的事后补充。这是因为企业没有清楚地了解他们正在寻找AI来解决的业务问题。
企业开发的AI和ML模型只有10%被实施。有问题的企业与可以使用AI解决该问题的数据科学家之间的历史性脱节使AI滞后。然则,伴随数据成熟度的提高,企业已经开始将数据翻译器集成到不同的价值链中,譬如以发现和转换结果的市场营销业务需求。
这就是为什么制定道德AI战略的首要原则是了解所有目标、目的和风险,然后在企业内建立一种分散的AI方法。
2.解决偏见歧视问题
由于从未恰当地开发出AI解决方案来解决偏见问题,招致大小企业的声誉都受到了损害,客户也不信任它们。所以建立AI模型的企业必须采取先发制人的措施,以确保他们的解决方案不会导致伤害。做到这一点的方法是,建立一个框架来防止任何对算法预测的负面影响。
比如,假如一家公司希望通过调查更好地了解客户的情绪,譬如代表性不足的社区怎样看待他们的服务,他们可能会使用数据科学来分析这些客户调查,并认识到所发布的调查中有一定比例的答复是非英语语言,这是AI算法可能理解的唯一语言。
为了解决这个问题,数据科学家们不仅可以修改算法,还可以结合语言的复杂细微差别。假如能够理解这些语言上的细微差别,并将AI与更流畅的语言相结合,使这些结论更可行,企业将能够了解代表性不足的社区需求,以改善他们的客户体验。
3.开发全方位的基础数据
AI算法能够分析大量数据集,企业应优先考虑为其AI模型使用和摄取的数据标准开发框架。为了成功实现AI,一个整体的、透明的和可追踪的数据集是必不可少的。
AI必须考虑到人类的干扰。譬如俚语、缩写、代码词,以及更多人类在不断进化的基础上发展出来的词汇,每一种都可能让高度技术的AI算法出错。无法处理这些人类细微差别的AI模型最终会缺乏整体数据集。就像试着在没有后视镜的情况下驾驶一样,虽说拥有一些需要的信息,但缺少关键盲点。
企业必须找到历史数据和人为干预之间的平衡,以便让AI模型了解这些复杂的区别。通过将结构化数据与非结构化数据相结合,并训练AI识别两者,可以生成更全面的数据集,并提高预测的准确性。进一步说,第三方对数据集的审计可以是一个额外的好处,没有偏见和差异。
4.避免算法开发的“黑匣子”方法
要让AI合乎道德,就需要完全透明。为了制定同时透明、可解释和可解释的AI策略,企业必须打开代码的“黑匣子”,以了解算法中的每个节点是怎样得出结论和解释结果的。
虽说这听起来很简单,但要实现这一点需要一个强大的技术框架,该框架可以通过查看底层代码来解释模型和算法行为,以显示正在生成的不同子预测。
企业可以依靠开源框架跨多个维度评估AI和ML模型,囊括:
- 特征分析:以评估将新特征应用于现有模型的影响
- 节点分析:解释预测的子集
- 局部分析:解释个体预测和匹配特征,从而提高结果
- 全局分析:提供了一个自上而下的整体模型行为和主要特征的审查
AI是一项复杂的技术,假如企业不小心的话,它会有许多潜在的陷阱。一个成功的AI模型应该从第一天开始就优先考虑道德问题,而不是事后才考虑。在各个行业和企业中,AI不是一刀切的,但应该取得突破的一个共同点是致力于透明和公正的预测。
图片使用申明:原创文章图片源自‘Canva可画’平台免费版权图片素材;引用文章源自引用平台文章中所使用的原图。