北京时间6月20日,OpenAI公司联合创始人、前首席科学家伊尔亚·苏茨克维通过社交媒体X宣布,创业成立了一家名为Safe SuperIntelligence(安全超级智能,下称“SSI”)的人工智能公司。
伊尔亚还发出了一份个人署名公告,他强调构建安全的超级智能是当下时代最重要的技术问题,已经启动了世界上第一个专注于安全超级智能的实验室,而SSI“只有一个重点、一个目标和一个产品”,那就是安全超级智能。
去年11月,由伊尔亚领导的OpenAI的AI安全团队曾发起一场“政变”,罢免联合创始人萨姆·奥特曼,最终,奥特曼回归,但整个事件却暴露了OpenAI的发展隐忧——对商业化及AI安全性战略难以平衡。
伊尔亚一直担心AGI(通用人工智能)在未来几年实现超级智能后会存在危险,他曾通过一篇博客表达,“巨大的超级智能力量可能导致人类被剥夺权力甚至灭绝”。虽然OpenAI成立之初的使命是构建安全又有益的AGI,但伊尔亚发现团队的目标和方向已经变化,直到今年5月15日,他突然在X上宣布离开OpenAI。
伊尔亚出走后,过去由他带领的OpenAI超级对齐团队成员接连离职。之后,OpenAI选择解散内部关注模型长远安全的团队,并在公司章程中删除了不能用于“军事与战争”的条款。
OpenAI在组织震荡后的动作,引发业内对其AGI研究现状的担忧。在此期间,伊尔亚与投资人、前苹果公司人工智能主管丹尼尔·格罗斯以及OpenAI原研究员丹尼尔·利维联合创业,试图通过人工智能系统中的相关工程突破实现安全。
伊尔亚在公告中称,SSI不会受到管理费用或产品周期的干扰,业务模式意味着安全、保障和进步都不会受到短期商业压力的影响。
但中国社会科学院科学技术和社会研究中心主任段伟文却指出了伊尔亚推进安全超级智能背后的悖论。
“AI大模型在智能上一旦超出人类,它所具有的不可解释性和不透明性,都会让人类对AI大模型的认知与控制变得非常困难。”段伟文认为,伊尔亚此前在OpenAI内部推行的“超级对齐”,具体方法是通过比较低级的大模型去控制更强大的大模型,这件事情本就跟OpenAI的商业化相冲突。
SSI的安全超级智能相关研究,被段伟文视为AI治理的一种服务,这必然依靠各种大模型的数据,假若OpenAI不与SSI合作,其他的大模型厂商会否愿意与SSI合作成为段伟文关注的方面。
从当前大模型在全球范围引发的技术热潮看,各国都在依据各自的技术水平、重视程度对大模型展开研究。段伟文认为,伊尔亚独立推进安全超级智能,格外需要在国际上形成前沿人工智能或超级智能安全研究的共识,只有在此基础上,才有可能将项目推进下去,实现相关数据共享等。
段伟文对伊尔亚突然宣布的创业消息并不意外,但在他看来,SSI未来能否活下去,与国际上是否已经对安全超级智能达成共识息息相关。