生成性人工智能令人忧心忡忡的十个理由
像ChatGPT这样的生成型人工智能模型是如此令人震惊,以至于现在有人声称,人工智能不仅可以与人类平起平坐,而且往往更加聪明。它们以令人眼花缭乱的风格抛出美妙的艺术品。它们能写出饱含细节、想法和知识的文本。生成的人工制品是如此多样,而且看来如此独特,以至于很难相信它们来自于机器。我们才刚刚开始发现生成性人工智能所能做的一切。
一些观察家认为,这些新的人工智能终于跨越了图灵测试的门槛。其他人则认为,这个门槛并没有被轻易超越,只是被过度吹捧。可是,这项杰作确实另个惊叹,以至于确实有一批人已经在走向失业的边缘。
但是,一旦人们见惯不怪,生成性人工智能天生的光环也与消退。一批观察者以正确的方式提出问题,让这些智能机器表达出或愚蠢或错误的内容。这已经成为当下的一种时髦。其中一些人使用了在小学艺术课上流行的老式逻辑炸弹,比如要求提供一张晚上的太阳或暴风雪中的北极熊的照片。其他人则提出了奇怪的请求,展示了人工智能上下文意识(也被称为常识)的局限性。那些对此有兴趣的人可以计算生成性人工智能失败的规律。
本文提出了生成式人工智能的十项缺点或缺陷。这份清能读来也许有点酸葡萄味,因为如果允许机器接管,他就会失去工作。你可以说我是一个支持人类团队的小人物,只不过希望人类在与在与机器的拼搏中能表现出英雄气概。尽管如此,我们是不是都应该有点担心呢?
1、剽窃
当像DALL-E和ChatGPT这样的生成型人工智能模型打造之初,它们实际上只是从其训练集中的数百万个例子中制造新的模式,其结果是对各种来源的剪切和粘贴的综合。如果人类这样做,就会被称为剽窃。
当然,人类也是通过模仿来学习。但是,在某些情况下,这种借鉴是如此明显,以至于会让一位小学老师感到不安。这种人工智能生成的内容由大块的文字组成,或多或少都是逐字逐句地呈现。然而,有时涉及到足够的混合或综合,即使是交给一组大学教授也很难发现其来源。无论如何,从中都不可能看到独特性。尽管这些机器闪亮夺目,但它们并没有能力生产出真正的新作品。
2、版权
虽然抄袭在很大程度上是学校才关心的,但著作权法却也适用于市场。当一个人抄袭另一个人的作品时,他们有可能被带到法院,可能会被处以数百万美元的罚款。但是人工智能呢?同样的规则是否适用于它们?
著作权法是一个复杂的话题,生成性人工智能的法律地位将需要花费数年才能解决。但请记住这一点:当人工智能开始生产看起来足够好的作品,使人类处于失业的边缘,其中一些人肯定会用他们新的业余时间提起诉讼。
3、无偿劳动
抄袭和版权并不是生成性人工智能引起的唯一法律问题。律师们已经在幻想着新的诉讼道德问题。举例来说,一家制作绘画程序的公司是否应该收集人类用户的绘画行为数据,然后将这些数据用于人工智能训练?人类是否应该为这种创造性劳动的使用而得到补偿?当前一代人工智能的成功,很大程度上源于对数据的获取。那么,当产生数据的人想要分一杯羹时会发生什么?哪些是公平的?什么可以被认定为合法?
4、信息不是知识
AI特别善于模仿人类需要多年才能发展的那种智能。当人类学者介绍一位晦涩难懂的17世纪艺术家,或者用几乎被遗忘的文艺复兴时期的音调结构写出新的音乐时,我们有充分的理由留下深刻的印象。我们知道,这需要多年的研究来发展这种深度的知识。当人工智能只经过几个月的训练就做这些同样的事情时,其结果可能是令人眼花缭乱的精确和正确,但却缺少一些关键因素。
如果一台训练有素的机器能够在一个装满数十亿条记录的数字鞋盒中找到正确的旧收据,它也可以学习关于像Aphra Behn这样的诗人的一切知识。你甚至可能相信,机器是为了解码玛雅象形文字的含义而制造的。AI可能看起来是在模仿人类创造力中俏皮和不可预测的一面,但它们无法真正做到。同时,不可预知性是推动创意创新的原因。像时尚圈这样的行业不仅沉迷于变化,而且被变化所定义。事实上,人工智能有它的位置,但是,老的来之不易的人类智能也是如此。
5、智力停滞不前
说到智力,人工智能本质上是机械的和基于规则的。一旦人工智能处理了一组训练数据,它就会创建一个模型,而这个模型并不会真正改变。一些工程师和数据科学家设想随着时间的推移逐渐重新训练人工智能模型,这样机器就能学会适应。但是,在大多数情况下,这个想法是要创建一个复杂的神经元集,以固定的形式编码某些知识。恒定性有它的位置,可能对某些行业有效。人工智能的危险在于,它将永远停留在其训练数据的时代潮流中。当我们人类变得如此依赖生成性人工智能,以至于我们无法再为训练模型产生新的材料时,又会发生什么?
6、隐私和安全
AI的训练数据需要来自某处,而我们并不总是那么确定神经网络中会出现什么。如果AI从其训练数据中泄露个人信息怎么办?更糟糕的是,锁定人工智能要困难得多,因为它们被设计得如此灵活。一个关系型数据库可以限制对含有个人信息的特定表格的访问。但是,人工智能可以用几十种不同的方式进行查询。攻击者将很快学会如何以正确的方式提出正确的问题,以获得他们想要的敏感数据。举个例子,比如说某项资产的经纬度被锁定了。一个聪明的攻击者可能会问该地点几周内太阳升起的确切时刻。一个尽职的人工智能会尝试回答。教导人工智能保护私人数据我们还并不掌握。
7、未被察觉的偏见
如果你知道最早的大型机程序员创造了缩写词GIGO或“垃圾进,垃圾出”,你就能明白从那时起他们就认识到计算机问题的核心。AI的许多问题来自于糟糕的训练数据。如果数据集不准确或有偏见,结果就一定会反映出来。
生成式人工智能的核心硬件可能像Spock(电视剧《星际旅行》的外星人主角)一样以逻辑为导向,但建造和训练机器的人类却不是这样。偏见和偏袒已经被证明确有途径进入人工智能模型。也许有人使用有偏见的数据来创建模型。也许他们添加了重写功能,以防止模型回答特定的热点问题。也许他们把硬性规定的答案放进去,然后变得难以检测。人类已经找到了许多方法来确保人工智能成为我们有害信仰的绝佳载体。
8、机器的愚蠢
我们很容易原谅人工智能模型犯错,因为它们在其他许多方面做得很好。只是,许多错误是很难预测的,因为人工智能的思维方式与人类不同。例如,许多文字转图像功能的用户发现,人工智能把相当简单的事情搞错了,比如算术。人类在小学时就学会了基本的算术,然后我们在各种各样的方面使用这种技能。让一个10岁的孩子画章鱼的草图,这个孩子几乎肯定会确定它有八条腿。当前版本的人工智能在涉及到数学的抽象和背景用途时往往会陷入困境。如果模型建造者对这种失误投入一些关注,这很容易改变,但还会有其他的失误。机器智能与人类智能不同,这意味着机器的愚蠢也会不同。
9、人类的易受骗性
有时在不知不觉中,我们人类往往会填补人工智能的空白。我们填补缺失的信息或插播答案。如果人工智能告诉我们亨利八世是杀害妻子的国王,我们不会质疑它,因为我们自己并不了解这段历史。我们只是提前假设人工智能是正确的,就像我们在有魅力的明星前欢呼雀跃的时候一样。如果一个说法听起来信心满满,那么人类的头脑往往愿意接受它就是真实和正确的。
对于生成性人工智能的用户来说,最棘手的问题是知道人工智能何时是错误的。机器不能像人类那样撒谎,但这使它们更加危险。它们可以产生几段完全准确的数据,然后转向猜测,甚至是彻底的诽谤,而没有人能意识到。二手车交易商或扑克牌手往往知道他们什么时候在作假,而且大多数人都有暴露他们诽谤行为的证据。但人工智能没有。
10、无限的丰富性
数字内容是可以无限复制的,这已经使许多围绕稀缺性建立的经济模式变得紧张。生成性人工智能将更多地打破这些模式。生成性人工智能将使一些作家和艺术家失去工作;它也颠覆了我们赖以生存的许多经济规则。当广告和内容都可以无休止地重新组合和再生时,广告支持的内容还能发挥作用吗?互联网的免费部分是否会沦为一个机器人点击网页上的广告的世界,所有这些都是由生成性的AI精心制作和无限复制的?
这种轻松的丰富性可能会破坏经济的各个角落。如果这些代币可以永远被复制,人们还会继续为不可复制的代币买单吗?如果制作艺术如此容易,它还会被尊重吗?它还会是特别的吗?如果它不特别,会有人关心吗?当一切都被视为理所当然时,是否会失去价值?这就是莎士比亚说到“The slings and arrows of outrageous fortune”时想表达的意思吗?让我们不要试图自己回答这此问题。让我们向生成型人工智能寻求答案。这个答案将是有趣的、奇特的,并最终神秘地被困在正确与错误之间的某个冥界。
图片使用申明:原创文章图片源自‘Canva可画’平台免费版权图片素材;引用文章源自引用平台文章中所使用的原图。