《科创板日报》10月24日讯(编辑 朱凌)刚刚,OpenAI又一位守旧派宿将迈尔斯·布伦戴奇(Miles Brundage)公布辞职。他所负责的通用人工智能(AGI)预备工作组也同时被遣散,并入其他团队。
布伦戴奇在OpenAI工作了六年多,是OpenAI恒久政策研究员、AGI预备工作高级顾问,也是OpenAI所剩无几对峙遏制人工智能风险的老员工之一。
天下还远未预备好欢迎AGI
在OpenAI章程中,AGI被界说为“在大多数经济代价较高的工作中,可以或许赛过人类的高度自主体系”。确保AGI造福全人类是OpenAI的任务。而布伦戴奇负责的AGI预备工作组的使命大抵是为安全、可靠、有益地开辟、摆设和管理本领日益加强的人工智能体系做好预备。
然而,布伦戴奇在北京时间本日破晓发布的去职声明中开门见山,无论是OpenAI照旧其他任何前沿实行室,都没有为实现AGI做好预备,这个天下还远未预备好欢迎强盛的AGI。
在布伦戴奇看来,现有的差距仍旧巨大,以至于他筹划在职业生活的剩余时间里,都致力于人工智能政策方面的工作。
布伦戴奇筹划参加一个非营利构造,以便更自由地发表文章,更独立地从事人工智能政策研究。他提到,固然OpenAI乐意以各种方式支持这项工作,但他在公司内部感受到的限定越来越多。特殊是发布文章检察方面的限定变得太多了。
此前,OpenAI首席实行官山姆·奥尔特曼(Sam Altman)曾试图将海伦·托纳(Helen Toner,现任美国乔治城大学安全与新兴技能中央战略主任)从OpenAI非营利构造董事会开除,缘故原由仅仅是她与人合著的一篇学术论文对OpenAI的安全答应提出了过多品评。
一个期间的闭幕
布伦戴奇的辞职,意味着OpenAI内部关注人工智能安全和管理的声音正在灭亡,OpenAI已不再是已往昨们熟知的谁人OpenAI。
剑桥大学潜伏风险研究中央研究员海顿·贝尔菲尔德(Haydn Belfield)称布伦戴奇的辞职为“一个期间的闭幕”。
究竟上,2019年OpenAI初次建立红利部分时,布伦戴奇等老员工就对非营利属性的改变表现过担心,但他们终极担当了这一变化。然而,随着时间的推移,环境发生了明显变革。特殊是在2023年11月,奥尔特曼被短暂开除的变乱之后,员工们对OpenAI的文化和向导层产生了质疑。
只管奥尔特曼被复职,但这一变乱只是OpenAI内部动荡的开始。自那以后,OpenAI员工人数大幅增长,但同时也失去了大量对峙遏制AI风险的员工。据美国《财产》杂志报道,在已往几个月中,有一半以上关注AGI安全的员工脱离了OpenAI。
值得留意的是,OpenAI前超等对齐团队的负责人伊利亚·苏茨克沃尔(Ilya Sutskever)和扬·莱克(Jan Leike)在去职时也公开品评了OpenAI的安全文化。莱克乃至表现,在已往几年里,OpenAI的安全文化已让位于光鲜亮丽的产物。
别的,布伦戴奇表达了对整个行业在AGI安全题目上的担心。他指出,只管比年来科技进步很快,但在安全题目上偷工减料、缺乏羁系大概会导致严峻的结果。他号令国会鼎力大举资助美国人工智能安全研究所。
布伦戴奇还以为,应该把安全地实现AGI视为环球性的挑衅,而非国家安全题目。他提倡通过国际互助,来办理将来AGI非常棘手的安全题目。