使用AI怎样创造更安全的在线空间
AI算法对人类生活和更广泛的社会有着巨大的影响。
围绕AI的伦理困境囊括数字差异及其武器化。
自治应该与人类监督相平衡,同时应该提高对AI的负责任使用,以便可以运用它来解决歧视问题。
在计算机进步、数据科学和庞大数据集的可用性的推动下,AI(AI)已成为强大的日常现实和商业工具。大型科技公司如谷歌、亚马逊和Meta现在正在开发基于AI的系统。该技术可以模仿人类语言、检测疾病、预测犯罪活动、起草法律合同、解决可访问性问题,并比人类更好地完成任务。对于企业而言,AI有望预测业务成果、改进流程并以大幅节省成本的方式提高效率。
但人们对AI的担忧仍在增加。
AI算法已经变得如此强大,一些专家将AI标记为有感知能力以至于任何腐败、篡改、偏见或歧视都可能对组织、人类生活和社会产生巨大影响。
数字鉴别
AI决策愈来愈大规模地影响和改变人们的生活。不负责任地使用它们会加剧现有的人类偏见和歧视性措施,比如种族定性、行为预测或性取向识别。之所以会出现这种固有的偏见,是因为AI的好坏取决于我们可以提供的训练数据量,而这很容易受到人类偏见的影响。
当机器学习算法在未充分代表某些族群(比如女性、有色人种或特定年龄人口统计数据的人)的数据上进行训练和测试时,也会出现偏差。比如,研究表明,有色人种特别容易受到面部识别技术算法偏差的影响。
使用中也会出现偏差。比如,为特定应用设计的算法可能会用于非预期目的,这会招致对输出的误解。
验证AI性能
AI主导的歧视可能是抽象的、不直观的、微妙的、无形的和难以察觉的。源代码可能会受到限制,亦或审计人员可能不知道算法是怎样部署的。进入算法以查看其编写方式和响应方式的复杂性不容小觑。
当前的隐私法依赖于通知和选择;故此,很少有人阅读由此产生的要求消费者同意冗长的隐私政策的通知。假如将此类通知应用于AI,将对消费者和社会的安全和隐私产生严重后果。
AI作为武器
虽说真正的AI恶意软件可能还不存在,但假设AI恶意软件会增强攻击者的能力并不牵强。可能性是无穷无尽的——从环境中学习以识别和运用新漏洞的恶意软件、针对基于AI的安全性进行测试的工具或可以用错误信息毒害AI的恶意软件。
由AI操纵的数字内容已经被用于实时建立超逼真的个人合成副本(也称为深度伪造)。故此,攻击者将运用深度伪造来制造针对性很强的社会工程攻击、导致经济损失、操纵舆论或获得竞争优势。
“AI主导的歧视可能是抽象的、不直观的、微妙的、无形的和难以察觉的。源代码可能会受到限制,亦或审计人员可能不知道算法是怎样部署的。”—SteveDurbin,信息安全论坛首席执行官
减轻与AI相关的风险
由于AI决策愈来愈大规模地影响和影响人们的生活,企业有道德、社会和信托责任以合乎道德的方式管理AI的采用。他们可以通过多种方式做到这一点。
1.将道德转化为指标
道德AI遵守明确定义的道德准则和基本价值观,比如个人权利、隐私、非歧视,重要的是,非操纵。组织必须建立明确的原则来识别、衡量、评估和减轻AI主导的风险。接下来,他们必须将它们转化为实用的、可衡量的指标,并将其嵌入日常流程中。
2.了解偏见的来源
拥有正确的工具来调查偏见的来源并了解决策中公平的影响对于开发道德AI绝对至关重要。识别使用机器学习的系统,确定它们对业务的重要性,并针对AI引起的偏差实施流程、控制和对策。
3.平衡自主权与人工监督
组织应建立一个跨领域伦理委员会,监督组织和供应链中AI系统引入的风险的持续管理和监控。委员会必须由来自不同背景的人组成,以确保对所有道德问题的敏感性。
算法的设计必须考虑到专家的意见、情境知识和对历史偏见的认识。必须在关键领域(比如在金融交易中)强制执行人工授权流程,以防止它们被恶意行为者破坏。
4.赋予员工权力并提升负责任的AI
培育一种文化,使个人能够在不扼杀创新的情况下提出对AI系统的担忧。通过透明地处理角色、期望和责任来建立对AI的内部信任和信心。认识到对新角色的需求并积极提升技能、重新技能或雇用。
假如需要,可以通过提供更好的控制权和对追索权的访问来授权用户。强大的领导力对于赋予员工权力和将负责任的AI提升为业务必要性也至关重要。
5.运用AI解决歧视问题
程序化检查是评估人类公平性的传统方法,可以通过在人类决策过程中运行算法、比较结果并解释机器主导决策背后的原因来从AI中受益。另一个例子是麻省理工学院有关打击系统性种族主义的研究计划,该计划致力于开发和使用计算工具在社会的很多不同部门创造种族平等。
图片使用申明:原创文章图片源自‘Canva可画’平台免费版权图片素材;引用文章源自引用平台文章中所使用的原图。