官网只有一篇文章介绍自己,其余信息一片空白。这家名为安全超级智能(Safe Superintelligence,SSI),成立不到3个月的企业,宣布融资10亿美元,估值超过50亿美元(约合355亿元人民币)。
SSI官网
SSI做什么?
公司成立于2024年6月。创始人为OpenAI前联合创始人、首席科学家伊尔亚·苏茨克维(Ilya Sutskever),苹果前AI高管、Y-Combinator的合伙人丹尼尔·格罗斯(Daniel Gross)和OpenAI前技术团队成员丹尼尔·列维(Daniel Levy)。
根据官网发布的文章,创始团队认为,构建安全的超级智能 (SSI) 是这个时代最重要的技术问题。因此,他们启动了世界上第一个直射式SSI实验室,只有一个目标和一个产品:安全超级智能。SSI是这家新公司的使命、公司的名字和公司整个产品路线图,因为这是它唯一的关注点。公司的团队、投资者和商业模式都为实现SSI而努力。
团队强调,将安全性和能力相结合,计划尽快提升能力,同时确保安全始终领先。这样,企业就可以安心扩展。
由于三位创始人头顶光环,SSI公司自成立伊始即受到业内关注,而投资机构对企业的发展也信心满满。
9月4日,SSI公司宣布获得10亿美元融资,投资方包括一众大牌投资机构,如Sequoia Capital(红杉资本)、a16z、DST Global、SV Angel、NFDG(前GitHub CEO奈特·弗里德曼和SSI联合创始人丹尼尔·格罗斯合资的投资公司)。同时,公司估值也达到50亿美元。
苏茨克维也转发了该融资消息并发文称:“山已确认,是时候开始攀登了。”
专注人工智能安全
作为SSI名气最大的创始人之一,苏茨克维出生于冷战结束前的苏联,后在以色列念了两年大学。2002年,他移居加拿大,并在2012年毕业于多伦多大学,获得计算机科学博士学位,曾是谷歌的一名研究科学家。2015年,加入OpenAI,成为该公司的联合创始人兼首席科学家。
苏茨克维在今年5月宣布离职OpenAI,随后在6月就宣布成立SSI。在当时,他就已经预告了接下来会有大动作。他当时在推文中写道,自己对未来将要发生的事情十分兴奋,这个项目对他个人来说很有意义。
事实上,AI安全一直是苏茨克维最关心的问题。去年7月份,他在OpenAI领导组建了一个超级对齐团队,旨在于4年内解决引导和控制超级智能系统的问题。不过随着OpenAI内部的人事动荡和权力斗争,这一部门目前基本已经处于解散的状态。
苏茨克维曾多次就AI安全问题公开发声。他在去年11月份进行了一场TED演讲,向公众普及了迈向AGI(通用人工智能)道路上可能存在的安全风险。
他还参与了一部关于AI的纪录片拍摄,分享了自己的AGI世界观和担忧。他在这部纪录片中称,如果不加干涉,自然选择的规律将会偏向那些优先保障自身利益的AI系统,届时人类的利益也可能受到损害。
但苏茨克维尚未清晰地分享过SSI将如何安全地实现超级智能。
但他在接受美国媒体采访时表示,公司将尝试通过AI系统内部的工程突破来实现安全性的提升,而非依赖系统外部的“护栏”技术。公司产品的安全水平将是核能级别的安全,而不是互联网公司常常挂在嘴边的信任与安全(Trust and Safety)中的那种安全。
校对:姚远