全球数字财富领导者

自作孽不可活?ChatGPT创始人称AI确实可能杀死人类 马斯克带头抵制GPT-5

2023-03-30 21:54:08
金融界
金融界
关注
0
0
获赞
粉丝
喜欢 8 0收藏举报
— 分享 —
摘要:短短6个月的时间,GPT-3.5迭代到GPT-4,当大家畅想一个更强大的GPT5的时候,马斯克等科技圈大佬带头泼下冷水——3月29日,未来生命研究所(Future of Life Institute)公布一封公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月。   截至发稿,超过1000人签署了这封公开信,除了马斯克之外,还包括图灵奖得主约书亚•本吉奥(Yoshua Bengio)、美国作家兼

  短短6个月的时间,GPT-3.5迭代到GPT-4,当大家畅想一个更强大的GPT5的时候,马斯克等科技圈大佬带头泼下冷水——3月29日,未来生命研究所(Future of Life Institute)公布一封公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月。

  截至发稿,超过1000人签署了这封公开信,除了马斯克之外,还包括图灵奖得主约书亚•本吉奥(Yoshua Bengio)、美国作家兼纽约大学教授加里•马库斯(Gary Marcus)、《人工智能:现代方法》作者斯图尔特•罗素(Stuart Russell)、 苹果公司联合创始人史蒂夫•沃兹尼亚克(Steve Wozniak)等。

  在近日的公开访谈中,“ChatGPT之父”萨姆·阿尔特曼说的话里,竟有一些耐人寻味的表述。他说,GPT系列为何会出现推理能力,OpenAI的研究者自己搞不明白。他们只知道,在不断测试中,人们忽然发现:从ChatGPT开始,GPT系列开始出现了推理能力。阿尔特曼还在访谈说了这样惊人的一句:“AI确实可能杀死人类。”

  AI威胁论是这封公开信的出发点。

  公开信表示,大量研究表明,具有与人类竞争智能的AI系统可能对社会和人类构成深远的风险,这一观点得到了顶级AI实验室的承认……最近这几个月,全球的AI实验室已经完全失控了,它们疯狂地开展AI竞赛,来开发和部署更强大的AI,而没有任何人可以理解、预测、控制这些AI,连它们的创造者都不能。

  显而易见,这封信的矛头直指OpenAI,且在信中援引了OpenAI的观点——“OpenAI最近关于通用人工智能的声明指出,‘在某些时候,在开始训练未来的系统之前进行独立审查可能很重要,并且对于最先进的工作来说,应该同意限制用于创建新模型的计算量增长。’我们同意。那个某些时候就是现在。”

  信中还写道,这种暂停应该是公开的和可验证的,并且包括所有关键参与者。如果不能迅速实施这种暂停,政府应介入并实行暂停。“这并不意味着总体上暂停AI开发,只是紧急从奔向不可预测的大型黑盒模型的危险竞赛中收回脚步。”

  开发者应同政策制定者一道,共同加速开发人工智能治理系统。这个治理系统至少包括:

  专门负责人工智能的全新监管机构;

  监督和跟踪高能力的AI系统和大型算力池;

  注明出处和水印系统,帮助区分真实和合成、以及跟踪模型泄露;

  健全的审计和认证生态系统;

  对人工智能造成的伤害进行责任认定;

  为人工智能安全技术研究提供强大的公共资金;

  以及提前预防人工智能导致的巨大经济政治破坏。

敬告读者:本文为转载发布,不代表本网站赞同其观点和对其真实性负责。FX168财经仅提供信息发布平台,文章或有细微删改。
go