作者 | 程茜
编辑 | 心缘
智东西9月4日消息,刚刚,据路透社报道,OpenAI前首席科学家Ilya Sutskever新近联合创立的AI创企安全超级智能(SSI)已筹集10亿美元(折合约71亿人民币)现金,用于帮助开发远超人类能力的安全AI系统。成立3个月,SSI估值已超过50亿美元(折合约356亿人民币)。
投资者包括顶级风投公司Andreessen Horowitz、Sequoia Capital、DST Global和SV Angel,由美国著名投资者Nat Friedman和SSI首席执行官Daniel Gross运营的投资合伙企业NFDG也参与其中。
SSI的创始人是37岁的Sutskever,他是AI领域最具影响力的技术专家之一,今年6月他和Gross共同创立了SSI,Gross曾领导苹果的AI项目。在这家创企中,Sutskever担任首席科学家, Daniel Levy担任主要科学家,Gross负责算力和筹款。
▲Daniel Gross、Ilya Sutskever、Daniel Levy(从左至右)
SSI的高管透露,SSI目前拥有10名员工,他们计划利用刚拿到的这笔资金购买算力并聘请顶尖人才。该公司将专注于组建一支由研究人员和工程师组成的小型团队,团队将分布于加利福尼亚州帕洛阿尔托和以色列特拉维夫。
Gross在接受采访时曾提到:“对我们来说,重要的是要有投资者理解、尊重和支持我们的使命,我们的使命是直接进入安全的超级智能,特别是在将产品推向市场之前花费几年时间进行研发。”
这家创企是去年Sutskever退出OpenAI后创立的,Sutskever称,他的新冒险很有意义,因为他“发现了一座与我之前工作的山峰略有不同的山峰”。
去年11月,他作为OpenAI非营利母公司董事会成员,该董事会因“沟通中断”投票罢免了OpenAI首席执行官Sam Altman。
几天后,Sutskever与OpenAI几乎所有员工一起签署了一封信,要求Altman回归并要求董事会辞职。但事态的发展削弱了他在Sutskever的地位,最后他被从董事会中除名,今年5月离开OpenAI。
结语:投资者仍重金押注基础AI研究
如今,AI安全已经成为热门话题,人们担心AI这一技术会被应用到损害人类利益的事情上。此前,美国加州发布的确保AI安全部署的SB-1047法案在发布时使得业界出现不同的声音。OpenAI和谷歌等公司反对这项法案发布,Anthropic和xAI则表示支持。
此次融资凸显出,一些投资者仍然愿意对专注于基础AI研究的杰出人才进行超额押注。近期投资者对这类公司提供资金的兴趣普遍减弱。因为这些公司可能在一段时间内无法盈利,再加上一些创企的创始人离职,使得部分投资者转投科技巨头。