人工智能治理:企业的风险、法规和趋势
为什么人工智能治理很重要
从人工智能治理的角度来看,你所做的事情可以确保你的客户、合作伙伴和市场信任你。如果你在社交媒体上和朋友聊得很开心,然后你知道的下一件事就是你被推荐或者收到某人的电子邮件,因为他们在跟踪你的谈话——我不知道你怎么样,但我不喜欢这样。它不会灌输信任。
你不想采用给顾客带来那种体验的做法。你的合作伙伴对你的体验以及整个市场的体验也是如此。你希望他们能够信任来自你的机器学习和人工智能能力的见解,而不会经历负面事件。
人工智能风险和安全
人工智能风险和安全组织,即AIRS,一个非正式的从业者团体,已经将人工智能风险分为四个不同的类别。首先是与数据相关的风险。
众所周知,人工智能模型的好坏取决于用来训练它们的数据。数据的局限性之一是,你可能没有模型将要看到的每一个实例的数据,所以你的模型有很大的学习局限性。此外,我们都听说过“垃圾进,垃圾出”我还没有遇到过没有某种数据卫生问题的企业客户。
下一个风险是坏演员。有一些人期待游戏人工智能系统,还有一些人可能会发起数据中毒攻击。其他风险是参与者可以用来推断关于训练数据的私人信息的技术。最后,有些坏演员会试图窃取你的模型来弄清楚它们是如何工作的——例如,窃取你的欺诈检测模型,这样他们就可以学会打败它。
即将出台的新规章制度
即将到来的最大的新法规之一,可能在2024年,是欧洲的人工智能法案,它创建了一个等级,将一些人工智能用例评为不可接受的风险,其他人为高风险,其他人为有限风险,其他人为最小风险。高风险人工智能将被禁止,包括大规模监控、操纵导致伤害的行为和社会评分等用例。高风险活动将需要评估,包括获得就业、教育和公共服务、车辆安全部件和执法。有限风险的人工智能活动需要透明,它们包括模仿、聊天机器人、情感识别和深度假货。任何其他的都可以归类为最小风险,并且对企业没有任何责任。
在美国,规则相当不同。美国国家标准与技术研究所发布了一个拟议的人工智能治理框架,但它不是强制性的。珀塞尔说,这份草案的形式侧重于如何帮助公司确保以负责任的方式创造人工智能,他认为它侧重于培养风险管理的文化。
此外,今年发布了一项人工智能权利法案,该法案不具有约束力,但它表明了拜登政府在人工智能法规方面将采取的方向。其中的关键部分是隐私的重要性,以及让人类做出关键决定而不是依赖人工智能/自动化的重要性。
跨企业的人工智能治理
一个坚实的人工智能治理实践将需要跨越整个组织,以便它能够在这个涉及隐私的法规日益成熟、客户日益复杂的新时代中导航。根据说法,这项工作需要包括人工智能领导者、业务领导者、数据工程师、法律/合规专家、数据科学家和解决方案工程师。这个小组的每个成员对人工智能实践都有不同程度的兴奋或关注。
图片使用申明:原创文章图片源自‘Canva可画’平台免费版权图片素材;引用文章源自引用平台文章中所使用的原图。