沃卡logo

第一名失业的人工智能机器人

2024-02-24来源:

在数字化的巨浪中,一场看似微不足道的失误揭示了一个深刻的问题:当企业将人工智能(AI)纳入其运营时,它们应承担何种责任?加拿大航空就因一次由客服聊天机器人引发的定价错误而不得不进行赔偿,这一事件远非简单的插曲,而是关于企业如何精确监管 AI 工具的重大议题的缩影。

优惠引发的争议

这一故事围绕着加拿大 British Columbia 省的居民 Jake Moffatt 展开。2022 年 11 月的一个清晨,他在浏览加拿大航空的网站,试图预订一张飞往安大略省,参加祖母葬礼的机票。网站上的聊天机器人向他保证,只要在 90 天内提交申请,他就有资格获得部分退款。然而,现实却与之相悖,因为加航的实际政策明确指出,预订航班票后,乘客不能以家庭悲伤为由申请退款。

到了 2023 年 2 月,Moffatt 终于提交了他与聊天机器人对话的截图给航空公司,以此证明自己的主张。文件揭露,加航“承认聊天机器人使用了‘误导性词汇’”,但仍然拒绝退款。

加航的辩解是,鉴于聊天机器人的回复中链接到了详细的丧亲旅行政策页面,Moffatt 本应该知晓丧亲优惠不能追溯申请。加航未予退款,而是提出更新聊天机器人的计划,并向 Moffatt 提供了一张价值 200 美元的优惠券,供其日后使用。

对这一解决方案,Moffatt 表示不满,拒绝了优惠券,并向加拿大民事解决法庭提起了索赔。

案件的主审官 Christopher Rivers 对加航的立场提出了批评,他指出:“加航的论点是,它不能为其代理人、仆人或代表(包括聊天机器人)所提供的信息承担责任。”他质疑航空公司要求客户根据网站其他部分的信息来验证聊天机器人所提供信息的合理性,认为这一要求是不合理的。

最终,支持 Moffatt 的裁决让他能够从 1640.36 加元的原票价中获得 650.88 加元的部分退款,以及额外的损失赔偿,包括机票利息和法庭费用。

在与 AI 系统提供的不良投资建议、指导进行欺诈性交易等问题相比,650 加元或许只是象征性的金额,但它凸显了一个更广泛的问题:在 AI 日益渗透我们生活的今天,企业应如何负责地部署和监管这些技术,以确保既促进效率又保护消费者权益。

轰轰烈烈地上岗后悄无声地下岗

在数字化创新的浪尖上,加拿大航空的一次大胆尝试——引入聊天机器人,旨在通过人工智能(AI)技术探索新的客户服务模式,却在实践中遭遇了波折。去年三月,加航首席信息官 Mel Crocker 曾对外宣布,部署聊天机器人是一场关于 AI 的“实验”,初衷是缓解航班延误或取消时呼叫中心的压力。

Crocker 解释道,在极端天气条件下,乘客急需重新安排航班,而此时,AI的介入能简化流程,提升效率:“如果你因为暴风雪而未能拿到新的登机牌,仅仅想要确认是否能在另一班飞机上获得座位,这正是我们可以借助 AI 轻松解决的问题。”随着时间推移,加航寄望于聊天机器人能解决更多复杂的客户服务问题,实现服务流程的全面自动化,减少“人工接触”的需求。

Crocker 的言论透露了加航对技术进步的积极态度:“如果我们能通过技术解决那些可以自动化的问题,我们就会毫不犹豫。”加航对于客户服务中人工智能技术的初步投资,尽管成本高昂,远超继续支付人工处理简单查询的费用,但他们坚信,这样的投资最终会通过提高服务质量得到回报。

然而,这一切并非没有代价。至少对于一位顾客而言,这项技术带来的是更多的挫折而非便利。截至 2 月 18 日,这位不速之客——聊天机器人,在加航的网站上已经不复存在。这不仅标志着一个高调启动、却默默退场的技术实验的结束,也对企业如何在追求自动化和保证客户满意度之间寻找平衡提出了重要的思考。

有没有规避措施?

在人工智能(AI)愈发成为企业运营不可或缺的一部分时,加航聊天机器人引发的争议凸显了一个重要的法律与道德议题:企业如何在利用 AI 提升效率与确保提供准确信息之间找到平衡点。法律专家的见解揭示了一个潜在的规避责任的策略:若加航的聊天机器人能在与顾客互动时明确指出其提供的信息可能存在不准确性,那么公司或许能够规避类似莫法特案件中的责任。

遗憾的是,加航似乎未采取此类预警措施。Christopher Rivers 裁判官的判断明确指出,“加航未采取合理谨慎的措施以确保其聊天机器人提供信息的准确性”,强调企业应对其网站上所有形式的信息负责,无论是来自静态页面还是动态的聊天机器人。

这一判决对于所有利用AI工具的企业来说,都是一个重要的警示,强调了监控和确保 AI 产出准确性的重要性。Gartner 的 AI 分析师 Avivah Litan 强调,企业必须投入资源进行严格的监控,这不仅可以避免潜在的法律费用和罚款,更重要的是确保技术为企业带来的是助力而非负担。

此外,生成式 AI,特别是聊天机器人等工具的使用,引发了对准确性的广

泛讨论。Litan 指出,大约 30%的生成式 AI 回答存在误差,企业需要通过建立防护机制来控制这些被称为“幻觉”的输出,确保不准确的信息不会误导用户。

IDC 的 Hayley Sutherland 和 Forrester 的 David Truog 分别强调了负责任地使用 AI 的重要性和目前聊天机器人技术的局限性。他们提醒企业,尽管技术不断进步,但在部署这些工具时应保持审慎,确保其既能处理简单任务,也能在复杂性和专业性方面达到有效沟通的标准。

综上所述,加航的经验教训为所有企业提供了宝贵的洞察:在追求自动化和效率的同时,必须投入适当的资源和策略来确保 AI 工具的准确性和可靠性,从而避免潜在的法律风险和维护顾客信任。

企业拥抱AI的责任与挑战

加拿大航空的经历超越了一个简单的聊天机器人失误,它触及了企业在采纳人工智能(AI)技术时所必须承担的更深层责任。这起事件不仅仅是一个警钟,也是对未来,特别是涉及 AI 系统——包括生成式 AI——的案件一个明确的指示:需要仔细考虑哪些参与者,无论是 AI 的行为者还是使用者,应对 AI 系统的输出承担责任。

这一事件强调了一个关键信息,即所有企业在追求由技术带来的效率和便利性的同时,也必须相应地投入资源,以确保这些技术的使用是安全、可靠且负责任的。这不仅关乎法律责任的界定,更关乎于企业如何在技术创新与伦理责任之间找到平衡点,确保在利用 AI 推动业务发展的同时,也能保护消费者的权益并促进公平、透明的技术使用环境。

  图片使用申明:原创文章图片源自‘Canva可画’平台免费版权图片素材;引用文章源自引用平台文章中所使用的原图。