发布时间:2023-04-19 17:07 原文链接: OpenAI回应“暂停更强大模型研发”公开信

原文地址:http://news.sciencenet.cn/htmlnews/2023/4/498843.shtm

近日,OpenAI 联合创始人兼 CEO 萨姆?奥特曼(Sam Altman)在美国麻省理工学院“想象力行动”活动上接受了采访。受访中,奥特曼回应了此前引起广泛关注的、“生命未来研究所”日前发布的呼吁业界“暂停开发更强大 AI 六个月”的公开信。他表示,他不认为公开信提出的建议是解决安全问题的最终方法。

  ?

OpenAI 的联合创始人兼 CEO 萨姆?奥特曼 资料图

“我同意,随着能力变得越来越强,安全标准必须提高。但我认为这封信缺少了关于我们需要暂停的大部分技术细节——这封信的早期版本声称我们正在训练 GPT-5。我们没有,而且在一段时间内也不会,所以从这个意义上说,这有点愚蠢。但我们在 GPT-4 的基础上还在做其他事情,我认为这些事情有各种安全问题需要解决,但信中完全没有提到。”奥特曼说:“因此,我认为谨慎行事,并对安全问题越来越严格,这一点非常重要。我不认为(信中的)建议是解决这个问题的最终方法。”

在回应中他表示,OpenAI 在发布 GPT-4 之前,已经花了六个月以上的时间来研究安全问题,并邀请外部审计和“红队”来测试模型的安全性。

奥特曼说,OpenAI 已经在这个领域工作了七年,付出了很多努力——而这是大多数人都不愿意做的事。他说,他愿意公开讨论AI安全问题和模型的局限性,因为这是正确的事情。他同时承认,有时候他和其他公司代表会说一些“蠢话”,甚至这些话后来发现是错误的,但他愿意冒这个风险,因为“这项技术需要对话”。

在访谈中,奥特曼还谈到了大语言模型(LLM)的发展趋势。他表示,目前LLM 的规模已近极限,且规模越大并不意味着模型越好。

“我们正在接近 LLM 规模的极限,规模越大并不一定意味着模型越好,而可能只是为了追求一个数字而已。”奥特曼认为,LLM 的规模将不再是衡量模型质量的重要指标,未来将有更多的方式来提升模型的能力和效用。

大模型的规模曾一度被比拟为人工智能新赛道上的“军备竞赛”,奥特曼对此回应道,人们往往更关注芯片能否完成任务,而不是关心它们到底有多快。他还表示,OpenAI 的目标是为世界提供有能力、有用、安全的模型,而不是“为了提升参数量而自我陶醉”。