如何让AI安全有效
以下是应用严格的人工智能信任、风险和安全管理(AI TRiSM)的组织如何以及为何将更有价值的AI模型投入生产。
你准备好接受人工智能权利法案了吗?最近的美国蓝图旨在保护社会免受有害人工智能的侵害,提醒所有人工智能模型的开发者和用户,他们需要在他们的人工智能模型和战略中建立保障措施。需要对AI TRiSM采取严格的方法。
Gartner将AI TRiSM定义为支持AI模型治理、可信赖性、公平性、可靠性、稳健性、功效和隐私的框架。它包括针对其客户和企业的模型可解释性和可解释性、隐私、模型操作和对抗性攻击抵抗的解决方案、技术和流程。
“IT领导者必须花费时间和资源来支持AI TRiSM。Gartner杰出副总裁分析师Avivah Litan表示,那些这样做的人将在采用、业务目标以及内部和外部用户接受度方面取得更好的人工智能成果。“人工智能威胁和妥协(恶意或良性)是持续不断的,并且不断演变,因此人工智能TRiSM必须是一种持续的努力,而不是一次性的练习。”
为什么AI TRiSM是一种趋势技术
Gartner预计,到2026年,实施AI透明度、信任和安全性的组织将看到他们的AI模型在采用、业务目标和用户接受度方面实现50%的结果改进。
人工智能变得越来越普遍。Gartner调查结果表明,组织已经部署了成百上千个一些IT领导者无法解释或解释的AI模型。缺乏知识和理解可能会产生严重的后果。当依赖增加时,人工智能模型表现不佳的影响会被放大。
不管理AI风险的组织更有可能遇到负面的AI结果和违规行为。模型不会按预期运行,并且会出现安全和隐私故障、财务和声誉损失以及对个人的伤害。错误执行的人工智能也可能导致组织做出糟糕的业务决策。
AI TRiSM影响和操作
人工智能法规正在增加,但即使在强制实施保护措施之前,实施确保信任、透明度和消费者保护的做法也很重要。IT领导者需要应用新的AI TRiSM功能来确保模型的可靠性、可信度、隐私和安全性。
不要等到模型投入生产后再应用AI TRiSM。它只是打开了潜在风险的过程。IT领导者应熟悉妥协形式并使用AI TRiSM解决方案集,以便他们能够正确保护AI。
AI TRiSM需要跨职能团队一起工作。这包括来自法律、合规、安全、IT和数据分析团队的员工。如果可能,建立一个专门的团队,或者如果没有,则建立一个工作组,以获得最佳结果。确保为每个AI项目提供适当的业务代表。
好处包括改善他们的组织从使用人工智能中获得的业务成果,而不是简单地遵守法规。
简而言之:
AI TRiSM功能可确保模型的可靠性、可信度、安全性和隐私性。
为了在AI采用、实现业务目标和用户接受方面取得更好的成果,组织需要管理AI信任、风险和安全性。
将AI TRiSM视为一套适当保护AI的解决方案。
Avivah Litan是Gartner Research的杰出副总裁分析师,目前是ITL AI团队的成员,该团队涵盖人工智能和区块链。她专注于区块链创新的各个方面,以及人工智能信任、风险和安全管理。Avivah在网络安全和欺诈的许多方面拥有强大的背景,包括人工智能与这些领域的集成。
图片使用申明:原创文章图片源自‘Canva可画’平台免费版权图片素材;引用文章源自引用平台文章中所使用的原图。