OpenAI宫斗剧情又更新了:Altman 和Gerg 回复Jan Leike指控,Yan LeCun补刀



这瓜是吃不完了,刚离职对齐大佬jan leike 痛批OpenAI边缘化安全团队,忽视AGI风险,这不,很快Altman 和Gerg 的回应就来了‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍
opencat第一时间又来报道了
Sam  and Gerg
回复了啥

都是一堆闲话‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍
1.基本就是感谢jan leike对安全工作的贡献,目前AGI正处于发展阶段,AGI风险管理是新事物,目前没啥一蹴而就的好办法,但是OpenAI既要不断推进重大技术进展,也要安全‍‍‍
2.为了推进AGI安全,可以推迟下一个模型的发布(指的应该就是GPT-5?)‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍
Yan LeCun 补刀
Yan LeCun老师看热闹不嫌事大,及时补刀‍‍‍‍
他们离开的更可能原因不是因为Ilya和Jan看到了一些他们无法控制的超级先进人工智能的出现,而是因为他们没有看到,并且随着认知失调的出现,OpenAI和其他构建实际世界人工智能的团队意识到,这种超级智能机器崛起并失控的幻想是一种浪费时间、金钱和资源‍
因此,他们慢慢地、正确地使那个团队缺乏计算资源,这些资源本可以用于更有用的事情,比如将能力构建到他们的产品中,AI就是产品

回复原文‍‍‍‍‍‍‍‍‍‍

我们非常感谢Jan为OpenAI所做的一切,我们知道他在离开后仍将继续为我们的使命做出贡献。鉴于他离职引起的一些问题,我们想解释一下我们对整体战略的看法‍
首先,我们提高了人们对AGI风险和机遇的认识,使世界能够更好地为其做好准备。我们多次展示了通过扩大深度学习所带来的巨大可能性,并分析了这些可能性的影响;在国际社会呼吁AGI治理之前我们已经发出了这样的呼吁;并且我们帮助开创了评估AI系统灾难性风险的科学‍
其次,我们已经在为越来越强大的系统的安全部署奠定基础。首次使新技术安全化并不容易。例如,我们的团队做了大量工作,以确保GPT-4安全地推向世界,并且自那时以来,我们根据部署中学到的经验不断改进模型行为和滥用监控‍
第三,未来的挑战将比过去更艰巨。我们需要不断提升我们的安全工作,以匹配每个新模型的风险。去年我们采用了准备框架,以帮助系统化我们的工作方式‍
现在正是一个很好的时机来谈谈我们对未来的看法‍
随着模型的能力不断增强,我们预计它们将更深入地与世界融合。用户将越来越多地与由多个多模态模型和工具组成的系统进行互动,这些系统可以代表用户采取行动,而不仅仅是通过文本输入和输出与单一模型对话‍
我们认为,这样的系统将对人们非常有益,并且可以安全地交付,但这需要大量基础性的工作。这包括在训练过程中考虑它们所连接的内容,解决诸如可扩展的监督等难题,以及其他新型的安全工作。在这一方向上前进时,我们还不确定何时能达到发布的安全标准,如果这会推迟发布时间,那也是可以接受的‍
我们知道我们无法预见每一种可能的未来情景。因此,我们需要有一个非常紧密的反馈循环,进行严格的测试,每一步都要仔细考虑,保持世界一流的安全性,并确保安全和能力的和谐统一。我们将继续针对不同的时间尺度进行安全研究。我们还将继续与政府和众多利益相关者在安全方面进行合作‍
目前还没有一个经过验证的路线图来引导通往AGI的道路。我们认为,实证理解可以帮助指明前进的方向。我们相信既要实现巨大的积极成果,也要努力减轻严重的风险;我们非常认真地对待我们的角色,并仔细权衡对我们行动的反馈‍
——Sam 和 Greg
⭐星标AI寒武纪,好内容不错过⭐
用你的赞和在看告诉我~

GPT5今年还有戏吗👇‍
到顶部