暂停开发强大的AI?YannLeCun和AndrewNg反对!

2023-04-09 08:02:05 51

来源:内容由半导体行业观察编译自venturebeat,谢谢。

人工智能行业的两位知名人士,Meta 的首席人工智能科学家Yann LeCun和 Deeplearning.AI的创始人Andrew Ng在周五的在线讨论中反对暂停开发强大人工智能系统的提议。



这场题为“为什么6个月的AI暂停是个坏主意”的讨论在 YouTube 上进行,吸引了成千上万的观众。

在活动期间,LeCun 和 Ng 对上个月由数百名人工智能专家、科技企业家和科学家签署的一封公开信提出质疑,呼吁暂停至少六个月的培训比 GPT-4 更先进的人工智能系统,一个文本生成程序,可以对几乎任何问题或主题产生真实而连贯的答复。

“我们已经详细考虑了这个为期六个月的暂停提议,并认为这是一个足够重要的话题——我认为如果政府实施它实际上会造成重大伤害——我和Yann觉得我们想在这里聊聊这一话题”吴先生在开场白中说。

吴恩达首先解释说,人工智能领域在最近几十年取得了显着进步,尤其是最近几年。深度学习技术促成了生成式人工智能系统的创建,这些系统可以生成逼真的文本、图像和声音,例如 ChatGPT、LLaMa、Midjourney、Stable Diffusion 和 Dall-E。这些系统为新的应用和可能性带来了希望,但也让人担心它们的潜在危害和风险。

其中一些担忧与当前和不久的将来有关,例如公平、偏见和社会经济流离失所。其他的则更具推测性和遥远性,例如通用人工智能 ( AGI ) 的出现及其可能的恶意或意外后果。


“这封信的不同签署人可能有多种动机,”LeCun 在开场白中说。“他们中的一些人,也许在一个极端,担心 AGI 被打开,然后在短时间内消灭人类。我认为很少有人真正相信这种情况,或者相信这是一种无法阻止的明确威胁。”

“还有一些人更通情达理,他们认为确实存在需要处理的潜在危害和危险——我同意他们的看法,”他继续说道。“让 AI 系统可控,让它们成为事实,如果它们应该提供信息等,并使它们无毒,存在很多问题。从某种意义上说有点缺乏想象力,未来的人工智能系统不会按照与当前的自回归 LLM(如 ChatGPT 和 GPT-4)或其他系统(如 Galactica 或 Bard 等)相同的蓝图设计.。我认为将会有新的想法使这些系统更加可控。”

关于如何监管AI的争论日益激烈

这场在线活动是在越来越多的争论中举行的,争论的焦点是如何规范新的LLM。这些模型基于深度学习并根据大量在线数据进行训练,引发了人们对其滥用和危害可能性的担忧。争论在三周前升级,当时 OpenAI 发布了其最新、最强大的模型 GPT-4。

在他们的讨论中,Ng和 LeCun 先生一致认为,一些监管是必要的,但不能以牺牲研究和创新为代价。他们认为,暂停开发或部署这些模型是不现实的,而且会适得其反。他们还呼吁研究人员、政府和企业之间加强合作并提高透明度,以确保以合乎道德和负责任的方式使用这些模型。


“我对 [这封信] 的第一反应是,呼吁推迟研发让我觉得是新一轮的蒙昧主义浪潮,”LeCun 说。“为什么要减缓知识和科学的进步?然后是产品问题……我完全赞成对人们手中的产品进行监管。我不认为监管研发有什么意义。我认为这除了减少我们可以用来真正让技术变得更好、更安全的知识之外没有任何目的。”

“虽然今天的人工智能有一些危害的风险,比如偏见、公平、权力集中——这些都是真正的问题,但我认为它也在创造巨大的价值。我认为,在过去 10 年,甚至在过去一年左右的时间里,通过深度学习,生成式 AI 创意的数量以及如何将其用于教育或医疗保健或响应式教练的方法令人难以置信地令人兴奋,而且很多人都认为它很有价值正在创造帮助其他人使用人工智能。”

他补充说:“我认为,与今天的 GPT-4 一样令人惊奇的是,将其构建得比 GPT-4 更好将有助于所有这些应用程序并帮助很多人。” “因此,暂停这一进展似乎会造成很多伤害,并减缓创造非常有价值的东西的速度,这些东西将帮助很多人。”


追加内容

本文作者可以追加内容哦 !