五个需要避免的人工智能采用错误
AI和ML将成为企业成功的宝贵资产。通过实施AI,企业可以将人工筛选数据的过程实现自动化,以实现更智能、更快速的业务决策。然而,自动化和AI并没有消除人类的责任。
1、没有识别正确的用例
到目前为止,许多企业都意识到了AI的好处。事实上,如果企业的业务没有实现自动化,可能会落后于竞争对手。根据普华永道公司的一项研究,86%的受访者预计AI将成为他们公司的“主流技术”。
尽管AI的使用激增,但贸然尝试为企业实施AI是不明智的。将AI应用于正确的用例以获得最佳结果非常重要。与其问“可以将AI应用于这种情况吗?”,不如问“是否将正确的AI应用于正确的情况?”。某些业务流程的AI实施最终必须在企业的时间和资源上是值得的。如果AI与业务目标不一致,那么就会浪费企业的时间和资源。
2、没有招聘到合适的人才
科技行业的招聘格局正在发生变化。根据CodingGame公司最近进行的一项调查,将近50%的招聘人员表示他们正在努力填补空缺职位。技术领域的招聘变得越来越困难,尤其是在AI领域。
招聘AI专业人员就像组建一支足球队,不能全由前锋或后卫组成。如果用AI的术语来说,不要只雇佣通才数据科学家,要关注应聘者的专业技能和经验与企业的业务需求相匹配。例如,在建模方面具有深厚的专业知识对于深入研究和解决方案开发至关重要,数据工程技能对于执行解决方案至关重要。
3、没有提供适当的数据维护
每个与AI相关的业务目标都始于数据——数据是使AI引擎运行的燃料。企业犯下的最大错误之一就是没有保护和利用他们的数据。这始于对数据完全由IT部门负责的误解。在数据被捕获并输入AI系统之前,业务主题专家和数据科学家应该参与进来,并且企业高管应该提供监督,以确保正确捕获和维护正确的数据。对于非IT人员来说,重要的是要意识到,他们不仅可以从良好的数据中获益,从而产生高质量的AI建议,而且他们的专业知识是AI系统的关键输入。确保所有团队都有共同的责任感来管理、审查和维护数据。
数据管理程序也是数据护理的关键组成部分。数据管理和治理流程需要不断发展,以处理不断增加的数据量、速度和种类,同时确保符合政府法规和企业规定。这包括数据收集、数据存储以及问责制和定期评估协议。
4、没有保持AI的有效性
AI需要干预才能随着时间的推移将其维持为一种有效的解决方案。例如,如果AI出现故障或业务目标发生变化,AI流程就需要改变。不采取任何行动或不实施充分的干预可能会导致AI系统阻碍或违背业务目标。
以AI定价系统为例。如果AI系统不能适应市场变化,AI的有效性就会降低。换句话说,随着源数据性质的变化,AI系统必须适应当前市场的发展。
衡量AI有效性的一种方法是通过销售团队的表现。有效的销售团队希望遵守有助于他们实现目标的定价建议,因此应该通过他们采用推动价值的AI的程度来衡量他们的绩效。与定价相关的常见关键绩效指标包括利润率和收入。跟踪关键绩效指标还有助于阐明哪些销售团队或团队成员正在采用AI。如果这些建议不能促进关键绩效指标的实现,那么可能是进行干预的时候了。
干预应该通过高度自动化的流程实现可扩展性和可重复性,以最大程度地减少AI用户的负担。干预应包括两个组成部分:审查AI系统的输入并确保其输出符合预期。这些做法中的每一个都应该在定期进行。不要等到AI出现故障才进行干预,而到那时企业的利润可能已经受到影响。
5、没有考虑可用数据中的潜在偏差
与人类一样,AI及其衍生输出在暴露于有限或不具代表性的数据集时可能会出现偏差。AI模型和描述性分析都是如此。偏见的存在和随后的考虑通常与AI背后的意图无关。因此,当这些偏见的后果产生时,责任往往在于AI的把关者,而不是AI系统本身。
如上所述,数据和干预是成功使用AI的重要组成部分。当AI中发现偏见时尤其如此。然而,预防问题总比解决问题好。如果可能的话,需要避免数据在无意中对种族、性别、阶级等产生偏见。例如,直接基于消费者地理位置和收入的建模可能会产生有偏见的输出。
为了防止偏见或纠正偏见,可解释的AI可能是一个很好的解决方案。可解释的AI方法可以识别推动AI模型预测或建议的关键因素,并使干预过程变得更加容易。一旦可解释的AI方法表明AI如何产生有偏见的输出,干预必须迅速、可重复和可扩展,以避免对企业的业务和消费者造成进一步的负面影响。
获得AI的帮助
正确使用AI对企业来说是不可或缺的资产。从增加投资回报到实现业务目标,再到让客户满意,其影响可能是巨大的。有意使用AI并制定指导方针以避免常见错误,将使AI实现增长和业务成功同步进行。
图片使用申明:原创文章图片源自‘Canva可画’平台免费版权图片素材;引用文章源自引用平台文章中所使用的原图。