智械危机来临?马斯克带头抵制GPT5 千人请命叫停“AI危险竞赛”

2023-03-30 08:02:23 36

短短6个月的时间,GPT3.5迭代到GPT4,当大家畅想一个更强大的GPT5的时候,马斯克等科技圈大佬带头泼下冷水——3月29日,未来生命研究所(Future of Life Institute)公布一封公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月

  截至发稿,超过1000人签署了这封公开信,除了马斯克之外,还包括图灵奖得主约书亚本希奥(Yoshua Bengio)、美国作家兼纽约大学教授加里马库斯(Gary Marcus)、《人工智能:现代方法》作者斯图尔特罗素(Stuart Russell)、 苹果公司联合创始人史蒂夫沃兹尼亚克(Steve Wozniak)等。

AI威胁论是这封公开信的出发点。

  公开信表示,大量研究表明,具有与人类竞争智能的AI系统可能对社会和人类构成深远的风险,这一观点得到了顶级AI实验室的承认……最近这几个月,全球的AI实验室已经完全失控了,它们疯狂地开展AI竞赛,来开发和部署更强大的AI,而没有任何人可以理解、预测、控制这些AI,连它们的创造者都不能。

  显而易见,这封信的矛头直指OpenAI,且在信中援引了OpenAI的观点——“OpenAI最近关于通用人工智能的声明指出,‘在某些时候,在开始训练未来的系统之前进行独立审查可能很重要,并且对于最先进的工作来说,应该同意限制用于创建新模型的计算量增长。’我们同意。那个某些时候就是现在。”

  信中还写道,这种暂停应该是公开的和可验证的,并且包括所有关键参与者。如果不能迅速实施这种暂停,政府应介入并实行暂停。“这并不意味着总体上暂停AI开发,只是紧急从奔向不可预测的大型黑盒模型的危险竞赛中收回脚步。”

  基于此,这封信提出建议,开发者必须与政策制定者合作,大幅加快开发强大的AI管理系统,该系统至少应该包括:

专门负责监管AI的机构;出处和水印系统,从而帮助区分真实与生成的内容,并且能够跟踪模型的泄漏;强大的审计和认证系统;在AI造成伤害后,明确谁该承担责任。

  生命未来研究所什么来头?

  这一幕似曾相识,当初谷歌在AI领域一骑绝尘,山姆阿尔特曼(Sam Altman)为此举办了一个私人宴会,邀请了马斯克等一众科技圈大佬,最终在数月后成立了非营利组织OpenAI以遏制谷歌。如今,同样的情景加诸己身。

  资料显示,生命未来研究所同样是一个非营利组织,它创立于2014年3月,其创始团队主要是高校学者、学生,包括麻省理工学院宇宙学家马克斯泰格马克,Skype联合创始人让塔林等。其研究所顾问委员会成员来源较广,部分名字耳熟能详,包括宇宙学家史蒂芬霍金、特斯拉CEO埃隆马斯克,亚伦艾达、摩根弗里曼等演艺界人士也在其中。

  生命未来研究所关注包括AI、生物技术、核武器、气候变化在内的多个重大议题。从其官网简介来看,其主旨在于引导变革性技术造福生命,远离极端大规模风险。


追加内容

本文作者可以追加内容哦 !