近,OpenAI 再传离职消息,安全政策顾问及 AGI 准备团队负责人米尔・布伦达奇(Miles Brundage)宣布将离开公司,并透露他所领导的团队也将解散,成员将被重新分配到其他部门。
布伦达奇在社交媒体平台 X 上发布了一篇文章,详细解释了自己的决定。他表示,离开 OpenAI 的原因主要是想要拥有更多的独立性和发表研究的自由。
值得注意的是,布伦达奇并不是唯一一位高层离职的安全研究者。早在今年5月,OpenAI 就解散了其超级对齐团队,这个团队主要负责人工超级智能的风险评估。此后,该团队的两位负责人亚恩・莱克(Jan Leike)和伊利亚・苏茨克维尔(Ilya Sutsver)也相继离职。
除此,公司的首席技术官米拉・穆拉特(Mira Murati)、首席研究官鲍勃・麦格鲁(Bob McGrew)以及研究副总裁巴雷特・佐夫(Barret Zoph)等多位高层也在近期相继离开。
在过去的六年中,布伦达奇一直在 OpenAI 向管理层和董事会提供建议,帮助公司为人工智能的快速发展做好准备。他在安全研究方面的贡献不容小觑,包括引入外部红队(external red teaming)机制,这一机制让外部专家参与检测 OpenAI 产品的潜在问题。
布伦达奇提到,他与 OpenAI 在研究发布的限制上存在分歧,觉得这些限制越来越难以接受。他认为,自己在 OpenAI 内部的工作已经影响了自己的研究客观性,使他在 AI 政策的未来问题上难以保持公正。他在社交媒体上还提到,OpenAI 内部普遍存在一种观点,那就是 “发声的代价很大,只有一些人能够做到这一点”。
这一系列高管的离职,不仅让 OpenAI 的未来方向引发了更多的关注,也使得外界对其内部文化和决策机制产生了更多的疑问。
[免责声明]如需转载请注明原创来源;本站部分文章和图片来源网络编辑,如存在版权问题请发送邮件至398879136@qq.com,我们会在3个工作日内处理。非原创标注的文章,观点仅代表作者本人,不代表本站立场。