沃卡logo

人工智能和大数据是我们一直在寻找的经济平衡器吗?

2022-09-15来源:

  尽管开明的美国人认为所有的“主义”都被推翻了,但美国经济仍然非常不公平。

  以种族主义为例。一方面,自爱诉弗吉尼亚州将这种做法合法化以来的50年里,跨种族婚姻增长了五倍。另一方面,根据政策研究所的一份报告,1983年至2013年间,非裔美国人的平均家庭财富中位数下降了75%。西北大学、哈佛大学和社会研究所的一项联合研究发现,自1989年以来,雇主对非裔美国人的歧视一直没有改变。

  性别歧视也呈现出类似的趋势。尽管“我也是”运动在追究性侵犯者责任方面取得了成功,但女性的收入仍然仅为男性的82%——皮尤研究中心称,这一数字在过去15年中保持相对稳定。

  事实是,美国人并没有靠自己建立一个公平的经济。偏见根深蒂固,在许多情况下,体制障碍太大。然而,机器或许能够通过开辟更多经济机会来弥合贫富差距。

人工智能和大数据是我们一直在寻找的经济平衡器吗

  计算正义

  尽管人工智能和大数据技术还很年轻,但它们已经在一系列领域显示出让商业决策更加公平的前景。

  例如,与白人男性相比,女性和少数族裔获得资本仍然困难得多。惊人的98%的风险投资来自一个82%为男性的行业。不到1%的风投支持的创始人是黑人,而在风险投资高级职位的创始人中也只有2%的比例相对较小。

  一家金融科技公司和借贷平台Kabbage正在努力改变这种状况。自动贷款平台有意从其贷款过程中去除种族和性别偏见。由于Kabbage的算法将这些主观因素排除在资金决策之外,因此少数族裔和女性在其贷款中获得的份额比女性和少数族裔拥有的小企业的全国数据所显示的要大。

  人工智能和大数据也开始在另一个传统上阻碍女性和少数族裔经济繁荣的领域留下印记。即使采取了平权行动,事实是黑人和西班牙裔在顶尖大学的代表人数比35年前更严重。尽管15%的美国大学生是黑人,但只有6%的精英大学录取者是非裔美国人。

  至少在公开场合,大学还没有使用人工智能算法来做出录取决定。但据《连线》创始人兼《不可避免》一书作者凯文·凯利(Kevin Kelly)所说,在大学招生中使用人工智能是不可避免的。多年来,大学一直使用算法根据平均成绩和入学考试成绩将申请人分类为“是”、“否”和“可能”,然后接受人工审查。

  在学生方面,SchoolWise等平台正在利用人工智能和机器学习技术将学生与推荐的学校进行匹配。“虽然数据分析和机器学习[已经]改变了许多行业,但[他们没有]在大学招生领域帮助学生,”SchoolWise创始人和麻省理工学院毕业生Salil Sethi在一份准备好的声明中说。除了将申请人的个性与大学文化联系起来,SchoolWise还提供其他资源,如经济援助计算器和招生顾问。

  除了获得资本和教育之外,经济歧视还以更有害的方式表现出来。例如,以少数族裔为主的社区支付的汽车保险费高于处于相同风险水平的白人地区。ProPublica报告发现,像Allstate、Geico和Liberty Mutual这样的保险公司在大多数居民是少数族裔的邮政编码地区收取的保费平均高出30%。

  希望使更多保费更加客观的保险公司正在转向分析和人工智能寻求帮助。当好事达从主要的个人保险产品转向商业产品时,它借此机会开发了一个名为ABIe的人工智能助手,即好事达商业保险专家,以帮助代理人报价和发行保险产品。尽管Allstate没有提及其投保人的种族或性别构成如何发生变化,但ABIe至少从等式中消除了一定数量的代理人主观性。

  数据困境

  人工智能无疑有助于使教育、金融服务和保险等经济支柱更加公平,但它会自动将歧视排除在经济之外吗?如果人类继续向其提供受偏见污染的数据,则不会。在根深蒂固的“主义”的数据集上训练的算法在做出客观决策方面并不比人类处理者好。

  但至少与社会层面人类决策的复杂性相比,有偏见的数据集是一个需要解决的小问题。在算法决策方面,进步会带来进步。当机器处理更客观的数据时,它们会做出更少的主观决定。当他们做出更公平的决定时,他们会生成更客观的数据,以此为未来的决策建模。

  因此,虽然机器可能无法单独建立一个更公平的经济,但它们至少能够比人类更好地客观地看待他们提供的数据。这听起来可能不多,但这是向前迈出的一步:美国人自己必须迈出的一步。

  图片使用申明:原创文章图片源自‘Canva可画’平台免费版权图片素材;引用文章源自引用平台文章中所使用的原图。