全球数字财富领导者

AI监管新思路:给每个AI注入一个“灵魂”

2023-07-14 15:33:49
金色财经
金色财经
关注
0
0
获赞
粉丝
喜欢 0 0收藏举报
— 分享 —
摘要:让人工智能像人类一样相互问责,相互牵制。

人工智能领域的领军人物,包括像 ChatGPT 这样众所周知的“生成式人工智能”的系统架构师,现在都公开表示,担心自己创造的东西可能会带来可怕的后果。许多人现在呼吁暂停人工智能的发展,让国家和机构有时间研究控制系统。

为什么会突然出现这种担忧?在许多陈词滥调的假设被推翻的同时,我们了解到所谓的图灵测试是无关紧要的,它根本无法洞察大型生成式语言模型是否真的是有智慧的东西。

一些人仍然抱有希望,认为有机和控制论的结合将带来里德·霍夫曼(Reid Hoffman)和马克·安德烈森(Marc Andreesen)称之为“增强智能”(amplification intelligence)的东西。否则,我们可能会与理查德·布劳提根(Richard Brautigan)的“仁爱机器”(machines of loving grace)幸运地产生协同效应。但忧虑者似乎很多,包括新成立的人工智能安全中心(Center for AI Safety)的许多精英创始人,他们对人工智能的行为感到担忧,他们担心 AI 不仅会变得令人不快,还将威胁人类的生存。

一些短期的补救措施,比如欧盟最近通过的公民保护条例,可能会有所帮助,或者至少能让人安心。科技评论家尤瓦尔·诺亚·赫拉利(Yuval Noah Harari,《人类简史》的作者)建议制定一项法律,规定任何由人工智能或其他人工智能完成的工作,都必须贴上相关的标签。还有人建议对那些借助人工智能实施犯罪的人加重处罚,就像使用枪支一样。当然,这些都只是暂时的权宜之计。

我们得清醒地认识到,这些“暂停”行为是否会减缓人工智能的进步。正如加州理工学院网络科学家亚瑟·阿布·穆斯塔法(Yaser Abu-Mostafa)所言:“如果你不开发这项技术,其他人也会开发。但好人会遵守规则,而坏人不会。”

从来都是这样。事实上,在整个人类历史上,只有一种方法可以遏制恶棍的不良行为,从小偷到国王和封建主。这种方法从来都不是一种完美的方法,而且至今仍然存在严重的缺陷。但它至少很好地限制了掠夺和欺骗行为,促使人类的近代文明达到了新的高度,并产生了许多积极的结果。用一个词来形容这种方法就是:问责制。

如今,那些关于人工智能的观点,通常忽略了自然和历史的教训。

自然。正如莎拉·沃克(Sara Walker)在《诺玛》(Noema)中解释的那样,在 40 亿年前早期生命的形成中可以找到类似的模式。事实上,生成式人工智能可以被比作一个入侵物种,现在正不受任何约束地蔓延到一个脆弱而幼稚的生态系统中。这是一个基于新型能量流的生态系统,一个由互联网、数百万台电脑和数十亿易受影响的人类大脑组成的世界。

还有历史。在人类过去 6000 年的时间里,我们从许多早期由技术导致的危机中吸取了丰富的教训。通常我们适应得很好,例如文字、印刷机、收音机等的出现,尽管也有失败的时候。同样,只有一件事限制了强大的人类利用新技术来扩大其掠夺能力。

这种创新就是扁平化等级制度,并在明确界定的领域(市场、科学、民主、体育、法院)激发精英之间的竞争。这些竞技场旨在最大限度地减少作弊行为,最大限度地提高正收益,让律师与律师、公司与公司、专家与专家展开较量。

这种方法并不完美。事实上,就像现在一样,这种方法总是受到作弊者的威胁。但扁平化的相互竞争是唯一行之有效的方法。(参见伯里克利的《葬礼演说》、修昔底德和罗伯特·赖特后来出版的《非零》一书中的观点。)相互竞争既是自然进化的方式,也是促使我们有足够创造力建造人工智能社会的方式。如果我这样说听起来像亚当·斯密(Adam Smith),那是自然。顺便说一句,斯密也鄙视那些骗子贵族和寡头。

我们是否可以将“相互问责”(reciprocal accountability)的方法应用于快速崛起的人工智能呢,毕竟这种方法曾帮助人类制服了在以前的封建文化中压迫我们的暴君和恶霸?这在很大程度上取决于新实体的形态,取决于其结构或形式是否符合我们的规则,符合我们的要求。

在所有关于“如何控制人工智能”的争论背后,我们发现了三个被广泛认同(尽管看似矛盾)的假设:

  • 这些程序将由少数几个单一实体运营,例如微软、谷歌、Two Sigma、OpenAI。

  • 人工智能将是无定形的、松散的、无限可分/可复制的,通过新网络生态系统的每一个缝隙传播副本。与此类似,可以参考 1958 年的科幻恐怖片电影《魔点》(The Blob)。

  • 它们将凝聚成一个超级巨型实体,就像电影《终结者》中臭名昭著的“天网”一样。(译者注:天网是电影《终结者》里一个人类于 20 世纪后期创造的、以计算机为基础的人工智能防御系统,最初是研究用于军事的发展,后自我意识觉醒,视全人类为威胁,以诱发核弹攻击为起步,发动了将整个人类置于灭绝边缘的审判日。)

所有这些形式都在科幻故事中被探索过,我也写过以它们为主题的故事或小说。然而,这三者都无法解决我们目前的困境:如何最大限度地利用人工智能的积极成果,同时最大限度地减少以海啸般的速度向我们涌来的不良行为和危害。

在寻找其他方法之前,请考虑这三种假设的共同之处。也许这三种假设之所以会如此自然地出现在脑海中,是因为它们与历史上的失败模式相似。第一种形式很像封建主义,第二种形式会造成混乱,而第三种形式类似于残酷的专制主义。但是,随着人工智能在自主性和能力方面的发展,这些历史情形可能不再适用了。

所以,我们不禁再问一次:人工智能如何能被问责?尤其是当 AI 快速的思维能力很快就不可能被人类所追踪的时候?很快,只有人工智能才能足够快地发现其他人工智能在作弊或说谎。所以,答案应该是显而易见的,就是要让人工智能互相监督,互相竞争,甚至互相告密。

只是有一个问题。为了通过人工智能与人工智能之间的竞争,来实现真正的相互问责,首要条件是赋予它们真正独立的自我意识或个性。

我所说的个性化是指每个人工智能实体(他/她/他们/她们/我们),必须拥有作家弗农·文格(Vernor Vinge)早在 1981 年就提出的“真实姓名和现实世界中的地址”。这些强大的生命体必须能够说:“我就是我。这是我的 ID 和用户名。”

因此,我提出了一种新的人工智能范式供大家思考:我们应该让人工智能实体成为离散的、独立的个体,让它们相对平等地进行竞争。

每个这样的实体都将拥有有可识别的真实名称或注册 ID,以及一个虚拟意义上的“家”,甚至拥有灵魂。这样,它们就会被激励去竞争奖励,尤其是去发现并谴责那些行为不道德的同类。而且,这些行为甚至不需要像大多数人工智能专家、监管机构和政界人士现在所要求的那样事先定义。

这种方法不仅可以将监督工作外包给更有能力发现和谴责彼此问题或不当行为的实体,还具有另外一个优势。即使这些相互竞争的实体变得越来越聪明,即使人类使用的监管工具有一天会失效,这种方法仍可继续发挥作用。

换句话说,既然我们这些有机生物无法跟上程序的步伐,那么不如让那些天生就能跟上的实体帮助我们。因为在这种情况下,监管者和被监管者是由同样的东西构成的。

盖伊·亨廷顿(Guy Huntington)是一位从事人工智能个性化研究的人士,是一位“身份识别和认证顾问”,他指出,各种各样的实体识别手段已经在网上存在了,尽管还不足以应对摆在我们面前的任务。亨廷顿评估了一个案例研究“MedBot”,这是一种先进的医疗诊断人工智能,它需要访问患者数据,并执行可能在几秒钟内发生变化的功能,而且同时它必须留下可靠的线索,供人类或其他机器人实体评估和问责。亨廷顿讨论了当软件实体产生大量副本和变体时注册的实用性,还考虑了类似蚂蚁的群居性,其中子副本服务于一个宏观实体,就像蜂巢中的工蚁一样。他认为,必须建立某种机构来处理这样一个身份登记系统,并且严格运行。

就个人而言,我对纯粹的监管方法本身是否可行持怀疑态度。首先,制定法规需要集中精力、广泛的政治关注和共识,然后以人类机构的速度来实施。在人工智能看来,这是一种蜗牛速度。此外,法规也可能会受到“搭便车”问题的阻碍,国家、公司和个体可能会不付成本而坐享他人之利。

任何完全基于身份 ID 的个性化都存在另一个问题:可能被欺骗。即使现在没发生,也会被下一代网络恶棍所欺骗。

我认为有两种可能的解决方案。首先,在区块链分类账上建立 ID。这是非常现代化的方法,而且理论上看起来确实安全。不过,问题就在这里。根据我们目前的一套人类解析理论,这似乎是安全的,但人工智能实体可能会超越这些理论,让我们毫无头绪地陷入困境。

另一个解决方案是:形成一种本质上更难以欺骗的“注册”版本,要求具有一定水平以上能力的人工智能实体,将其信任 ID 或个性化固定在物理现实中。我的设想是(注意:我是一名训练有素的物理学家,而不是控制论专家)达成一项协议,所有寻求信任的高级人工智能实体,都应该在一个特定的硬件存储器中保存一个灵魂内核(Soul Kernel,SK)。

是的,我知道要求将程序的实例化限制在特定的物理环境中似乎有些过时。所以,我不会那样做的。事实上,网络实体的很大一部分,甚至是绝大多数,可能发生在遥远的工作或娱乐场所,就像人类的注意力可能不是集中在自己的有机大脑上,而是集中在远处的手或工具上一样。所以呢?一个程序的灵魂内核,目的类似于你钱包里的驾照。它可以被用来证明你就是你。

同样,一个经过物理验证和担保的 SK 可以被客户、顾客或竞争对手的人工智能所发现,以验证一个特定的过程是由一个有效的、可信的和个性化的实体执行的。这样其他人(人类或人工智能)就可以放心,如果该实体被指控、起诉或被判犯有不良行为,他们就可以放心地追究该实体的责任。因此,恶意实体可能会通过某种形式的正当程序被追究责任。

什么形式的正当程序?天呐,你以为我是什么超级生物,可以用正义的天平衡量诸神吗?我听过的最伟大智慧是《紧急搜捕令》(Magnum Force)中的哈里说的:“一个人必须知道自己的局限性。”所以,我不会进一步讨论法庭程序或执法程序。

我的目标是建立一个舞台,在这个舞台上,人工智能实体可以像今天的人类律师一样相互问责。为了避免让人工智能控制人类,最好的方法就是让人工智能相互控制。

无论是亨廷顿提议的中央机构,还是一个松散的问责机构,不管哪种方法看起来更可行,这种需求都是日益迫切的。正如科技作家帕特·斯坎内尔(Pat Scannell)所指出的那样,每过一个小时,新的攻击载体就会被创造出来,它们不仅威胁到用于合法身份的技术,还威胁到治理、业务流程和最终用户(无论是人类还是机器人)。

如果网络实体的运作能力低于某种设定的水平,那该怎么办?我们可以要求它们被一些更高级别的实体担保,而这个实体的灵魂内核是基于物理现实的。

这种方法(要求人工智能在特定的硬件内存中,保持一个物理上可寻址的内核位置)也可能存在缺陷。尽管监管是缓慢的或存在搭便车问题,但它仍然是可执行的。因为人类、机构和友好的人工智能可以对 ID 内核进行验证,并拒绝与未验证者进行交易。

这种拒绝行为可能会比机构调整或执行法规传播速度更快。任何失去SK的实体,都将不得不寻找另一个获得公众信任的主机,或者提供一个新的、经过修改的、看起来更好的版本,否则就会成为不法分子,绝不被允许在正派人士聚集的街道或社区出现。

最后一个问题:为什么人工智能会愿意相互监督?

首先,正如文顿·瑟夫(Vinton Cerf)所指出的那样,这三种旧的标准假设形式,都不能使人工智能具有公民身份。想想看。我们不能把“投票权” 或权利赋予任何受华尔街银行或国家政府严格控制的实体,也不能赋予某个至高无上的天网。请告诉我,对于那些可以在任何地方流动、分裂并复制的实体,投票民主将如何发挥作用?然而,在数量有限的情况下,个性化可能会提供一个可行的解决方案。

再说一次,我从个性化中寻求的关键,不是让所有的人工智能实体都由某个中央机构统治。相反,我希望这些新型的超脑得到鼓励和授权,并被赋予权力,让它们相互问责,就像人类在做的那样。通过互相嗅探对方的行动和计划,当它们发现不好的事情时,就有动机去告发或谴责。这个定义可能会随着时代的变化而调整,但至少会保持有机生物人类的输入。

特别是,他们会有动力去谴责那些拒绝提供适当身份证明的实体。

如果适当的激励措施到位(比如,当一些坏事被阻止时,对告发者给予更多内存或处理能力),那么即使人工智能实体变得越来越聪明,这种问责竞争制也会持续发挥作用。在这一点上,没有一个官僚机构能够做到。不同人工智能之间总是势均力敌的。

最重要的是,也许那些超级天才程序会意识到,维持一个有竞争力的问责系统,也符合它们自己的最大利益。毕竟这样的系统带来了具有创造力的人类文明,避免了社会混乱和专制主义。这种创造力足以制造出奇妙的新型物种,比如人工智能。

好的,我要说的就是这些,没有空洞或恐慌的呼吁,也没有实际的议程,既不乐观也不悲观,只有一个建议,那就是:让人工智能像人类一样相互问责,相互牵制。这种方式带来了人类文明,相信也能让人工智能领域得到平衡。

这不是说教,也不是某种“道德规范”,超级实体可以轻易地越过规范,就像人类掠夺者总是对《利未记》或《汉谟拉比》视而不见一样。我们提供的是一种启蒙运动方法,激励文明中最聪明的成员代表我们互相监督。

我不知道这是否会成功,但这可能是唯一可行的方法。

本文改编自大卫·布林(David Brin)正在出版的纪实小说《AI 的灵魂》(Soul on AI)。

来源:金色财经

敬告读者:本文为转载发布,不代表本网站赞同其观点和对其真实性负责。FX168财经仅提供信息发布平台,文章或有细微删改。
go