当地时间周二,OpenAI表示,已成立了一个安全委员会,由首席执行官Sam Altman等董事会成员领导,开始训练其下一代人工智能模型。
据悉,安全顾问委员会将在接下来90天内负责评估OpenAI的安全流程和保障措施,然后向董事会汇报其发现和建议。
除了Altman,新安全委员会还包括三名董事会成员董事长Bret Taylor、Quora首席执行官Adam D’Angelo和前索尼娱乐高管Nicole Seligman,以及OpenAI技术和政策专家Aleksander Madry(准备工作主管)、Lilian Weng(安全系统主管)、John Schulman(对齐科学主管)、Matt Knight(安全主管)和 Jakub Pachocki(首席科学家)。
同时,OpenAI还透露,已经在开始训练新一代人工智能模型,以期超越目前的GPT-4大模型。
OpenAI表示:“公司最近开始训练其下一个前沿模型,我们预计由此产生的系统将使我们在通往AGI的道路上迈上一个新台阶。”
有分析认为,成立新的安全委员会标志着,OpenAI完成了从更不明确的非营利实体向商业实体的转变。这应该有助于简化产品开发,同时保持问责制。
作为行业遥遥领先的企业,OpenAI的聊天机器人非常强大。不过,随着AI模型越发强大,人们也在担忧其可能引发的安全问题。
本月初,前首席科学家Ilya Sutskever和Jan Leike离开了OpenAI,他们都曾是OpenAI超级对齐团队的负责人,该团队的目标是确保AI与预期目标保持一致。
离职后,Jan Leike爆料称,他的部门在OpenAI内部“苦苦挣扎”以获得计算资源,并批评“安全文化和流程已经让位于闪亮的产品”。
周二,Jan Leike已表示,他将加入OpenAI的竞争对手Anthropic。他在Anthropic的工作将专注于与他在 OpenAI工作类似的主题——与AI模型的控制有关的安全问题。
在高管离职几天后,OpenAI于5月初解散了超级对齐团队,团队的人员也整合到了公司的其他部门。
同时,前董事会成员Helen Toner持续爆料Altman与董事会之间存在的沟通不畅问题,去年她参与了解雇Altman的事件。
她透露,OpenAI董事会直到2022年11月ChatGPT发布后才知道它要推出。
她表示:“董事会事先并未得到通知,我们在推特上了解到了ChatGPT。”
Toner表示, Altman通过隐瞒信息、歪曲事实以及“在某些情况下直接向董事会撒谎”的方式,使OpenAI董事会难以履行职责。
她还透露,Altman还向董事会隐瞒了公司的所有权结构。“萨姆没有告知董事会他拥有OpenAI创业基金,他一直声称自己是独立董事会成员,对公司没有任何经济利益”。