当前位置:首页|资讯

Ilya三个月肝出50亿美金独角兽,SSI 10人团队不走OpenAI老路

作者:新智元发布时间:2024-09-05

【导读】就在刚刚,Ilya创业新公司SSI完成一笔10亿美元融资。公司仅仅成立3个月,10位成员,如此神速地拿到巨额融资。目前,公司估值高达50亿美金。

时隔三个月,失踪人口再次回归!

Ilya官宣,自家公司SSI(Safe Superintelligence)完成10亿美元首轮融资,估值高达50亿美金。

他发文称,「高山已确定,是时候往上爬了」。

另一位联创Daniel Levy表示,是时候开干了!

SSI首轮融资的投资者包括,Andreessen Horowitz、红杉资本、DST Global、SV Angel。

由Nat Friedman和SSI首席执行官Daniel Gross运营的投资合作伙伴关系NFDG,也参与了此次投资。

根据文件显示,SSI通过多轮融资活动,才筹集的这笔资金。公司已经授权了种子轮、种子扩展轮和A轮股份。

值得一提的是,SSI目前仅有10名员工,仅仅成立3个月,便深受资本的青睐。这背后,与最大的IP——Ilya有着密切关系。

想当初,「AI教母」李飞飞也是创业3个月,创造出估值10亿美金独角兽。

不得不说,Ilya带领SSI一开局,就强的一批。

三位联创:Daniel Gross、Ilya Sutskever、Daniel Levy

3个月,50亿美金独角兽

路透独家报道称,此次融资最重要的目的,便是购买算力、聘请顶尖人才。

这家公司自成立伊始,性质便是一家传统的盈利性公司。

相比之下,OpenAI和Anthorpic都采用了创新的架构——前者是「利润封顶」模式,而后者是「长期利益信托」。

6月19日,离职OpenAI一个多月的Ilya,终于现身正式宣布了新公司。

他与前苹果AI项目负责人Daniel Gross,以及前OpenAI研究员Daniel Levy共同创立了SSI。

Ilya和Levy担任首席科学家,而Gross负责算力和公司的融资。 

在SSI的官方介绍中,Ilya这样解释了公司的宗旨和愿景——目标唯有一个,就是「实现安全的超级智能」。 

并且,Ilya同时广发英雄令,召集世界上最优秀的工程师和研究者前来。 

有网友调侃道,快把Greg招过去,他正好在休假。 

目前,SSI已经在两地——加利福尼亚Palo Alto,以及以色列Tel Aviv,建立了一个小型且高度可信的研究团队。 

联创Daniel Gross在采访中再次表示: 

对我们来说,拥有理解、尊重和支持我们使命的投资者是很重要的。这个使命是直接实现「安全的超级智能」,并在将产品推向市场之前花费几年进行研发。 

从另一方面可以看出,一些资本家们仍愿意对,专注于基础AI研究的杰出人才投入巨资。 

所有人更加关心的是,SSI究竟要打造出什么样的项目。 

新的山峰

在OpenAI工作十年后,37岁的Ilya对创业愈加充满热情。 

他认为,全新的创业项目是非常有意义的,因为发现了一座与之前工作,略有不同的山峰。 

去年,作为OpenAI非盈利母公司董事会成员,他曾参与投票,决定罢免Sam Altman,理由便是「沟通破裂」。 

几天后,他又改变了决定。 

一起与几乎所有OpenAI员工一起签署了联名信,要求Altman回归和董事会辞职。 

但这一系列事件,削弱了Ilya在OpenAI的角色。先是被移出董事会,然后在今年5月离职OpenAI。 

Ilya离职后,OpenAI解散了他的「超级对齐」团队。该团队致力于确保AI与人类价值观保持一致,以为AI超越人类智能的那一天做准备。 

因此,与OpenAI出于AI安全考虑,而采用的公司结构不同(这使得Altman罢免成为可能),SSI采用了传统的盈利性结构。 

SSI对招聘的人才,也提出了一定的要求——必须与公司文化理念契合。 

Gross表示,他们花费数小时评估候选人是否具有「良好品格」,并寻找具有非凡能力的人,而不过分强调AI领域的资历和经验。 

他补充道,当我们找到对工作感兴趣,而不是对场景、炒作感兴趣的人时,才最令人兴奋。 

算力候选

在算力方面,SSI计划与云服务提供商,以及芯片大厂合作,来满足计算能力的需求。 

不过现在,他们尚未决定与哪些公司展开合作。 

一直以来,OpenAI、xAI等初创公司都与微软、英伟达等公司合作,来满足对基础设施的需求。 

作为大模型Scaling的早期倡导者,Ilya认为AI模型性能,与算力的提升呈正比。 

正是这个想法施展,引发了AI在芯片、数据中心和能源方面的投资浪潮,为ChatGPT这样的生成式AI进步,奠定了基础。 

与众不同

创业后的Ilya对Scaling Law有了不同的看法,并表示,他们将以不同于OpenAI的技术来处理Scaling,但并未透露出细节。 

现在,他更愿将其称之为「Scaling Hypothesis」。 

每个人都只是在说Scaling Hypothesis,却都忽略了要问:我们在Scaling什么? 

有些人可以工作很长时间,他们只是沿着同一条路走得更快。这不太符合我们的风格。但如果你正做一些不同的事情,那么就有可能做出一些特别的事情。 

更远的畅想是,未来一些人可能会与AI合并。 

几年前,Ilya在一期播客采访中预测,与AGI互动可能帮助我们更好地观察世界,并认识提升自己。 

随着世界的变化,一些人可能会选择与AI合并,以便理解这些变化,并去解决一些棘手的问题。 

人类与AI合并的这个问题,也只有Ilya能回答。 

「安全超级智能」的时代来了

超级智能,如何安全?看似一个矛盾的话题,Ilya团队如何实现? 

所谓「安全的超智能」,意味着AI有着惊人的智能,但不会被「天网接管」。 

想象一下,一个如此强大的AI,它可以应对气候变化、治愈癌症……并将人类视为真正的问题。这可不是我们想要的未来,对吧? 

至于SSI,他们表示自己将安全放在了首位。这里没有「快速行动和打破常规」,一切都是关于「和平扩展」。就像训练你的狗:在放它出门之前,首先教会它遵守规矩。 

但问题在于,构建安全超智能就像试图训练霸王龙使用茶杯,技术障碍巨大。其中就有我们熟知的「对齐问题」——确保AI的目标与我们的目标一致。你懂的,就是「不要毁灭人类」那件事。 

那么,SSI是游戏规则改变者还是只是一个幻想?只有时间会告诉我们。但他们对安全的承诺以及与其他研究人员的合作,可以说是AI世界中的一股「清流」。 

谁知道呢,也许他们就是最终破解代码,并开启AI黄金时代的人。 

顺便,可以随时关注一下事情的进展,没准还可以藉此提升与机器人谈判技巧(以防万一)。 

参考资料: 

https://x.com/ilyasut/status/1831341857714119024 

https://www.reuters.com/technology/artificial-intelligence/openai-co-founder-sutskevers-new-safety-focused-ai-startup-ssi-raises-1-billion-2024-09-04/ 

https://www.linkedin.com/pulse/safe-superintelligence-inc-era-begins-ghazi-khan-6czmc/ 

本文来自微信公众号“新智元”,编辑:桃子 好困 ,36氪经授权发布。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1