刚刚,Ilya新公司SSI融资10亿、估值50亿美元,网友:它甚至还没有产品

OpenAI 前首席科学家 Ilya Sutskever 的新公司 SSI(安全超级智能)终于又有了新消息。就在刚刚,SSI 官推表示,公司正在构建一条通往安全超级智能的捷径,并已经募集到了 10 亿美元的融资。投资者包括了顶级风险投资公司 Andreessen Horowitz、Sequoia Capital、DST Global 和 SV Angel。此外,由 Nat Friedman 和 SSI 首席执行官 Daniel Gross 经营的投资合伙企业 NFDG 也参与其中。Ilya 也发推表示,「是时候攀登

OpenAI 前首席科学家 Ilya Sutskever 的新公司 SSI(安全超级智能)终于又有了新消息。

就在刚刚,SSI 官推表示,公司正在构建一条通往安全超级智能的捷径,并已经募集到了 10 亿美元的融资。

投资者包括了顶级风险投资公司 Andreessen Horowitz、Sequoia Capital、DST Global 和 SV Angel。此外,由 Nat Friedman 和 SSI 首席执行官 Daniel Gross 经营的投资合伙企业 NFDG 也参与其中。

图片

Ilya 也发推表示,「是时候攀登(PS:更高的山峰了)。」

图片

SSI 联合创始人、前 OpenAI 技术团队成员 Daniel Levy 表示:是时候开始工作了。

图片

据路透社援引知情人士的消息,SSI 公司估值达到 50 亿美元。此次融资表明,一些投资者仍愿意对专注于基础人工智能研究的杰出人才进行超额押注。此前由于这类公司可能在很长一段时间内无法盈利,所以人们的投资兴趣普遍减弱。

在接受采访时,Gross 表示,「对我们而言,最重要的是迎来了理解、尊重并支持我们使命的投资者。」

SSI 现在拥有 10 名员工,并计划利用这笔融资来获得算力并聘请顶尖人才。公司将专注于建立一个由研究人员和工程师组成的小型高度信任团队,成员将分布在加利福尼亚州帕洛阿尔托和以色列特拉维夫。

在人才招聘方面,SSI 目前非常注重招聘能够适应其文化的人才。公司会花费数小时来考察候选者是否具有「良好品格」,并寻找那些具有卓越能力的人,不过分强调领域的资历和经验。「我们想要的是对工作感兴趣,而不是对炒作感兴趣的人才。」Gross 这样表示。

此外, 关于公司未来发展,SSI 计划与云供应商和芯片公司合作,以满足自身的算力需求,但还没有决定与哪些公司合作。

在算力层面,Ilya 是 scaling law 的早期倡导者。不过,他曾表示,公司会通过与以往雇主(OpenAI)不同的方式来处理 scaling law, 但不愿透露细节。他表达过这样的观点:每个人都只是在说 scaling 假说,但都忽略了一个问题,即我们在扩展什么?

出走 OpenAI,Ilya 有了新的目标

今年 6 月,在离开 OpenAI 一个月后,Ilya Sutskever 开始创办新公司「安全超级智能」(Safe SuperIntelligence,SSI)。SSI 在帕洛阿尔托和特拉维夫均设有办事处。

该公司的目标和产品非常明确、单一:追求安全的超级智能,希望通过一支精干顶尖的小团队取得革命性的成果,进而实现这一目标。

图片

在公司的一则公告中,SSI 明确表示构建安全超级智能(SSI)是这个时代最重要的技术难题。他们已经启动了世界上第一个专注于 SSI 的实验室,目标和产品都只有一个:安全超级智能。

SSI 将安全性和能力视为通过革命性工程和科学突破来解决的技术难题。SSI 计划尽快提高能力,同时确保安全性始终保持领先地位。

加入该公司的研究人员将专注于 SSI,不做其他任何事情。

对于 SSI 融资的消息,大家的反应还是很震撼的:一家成立刚几个月、没有任何产品、甚至没有一行代码投入生产的公司,就能融资 10 亿美元,估值高达 50 亿美元,这未免太疯狂了。

图片

还有网友表示「这肯定是估值超过 10 亿美元最快的公司之一。我想知道他们是否能在足够合理的时间内有效利用这些资金。」

图片

「这可能是历史上最大的种子轮融资(请注意,10 亿美元是筹集的现金,而不是估值)。种子轮估值可能在 50 亿美元左右,这意味着这些投资者预计,这家公司(目前是众多公司之一)很有可能成为世界上最大的公司之一,因为考虑到如此早期的投资风险,这就是他们需要的倍数。」

图片

看来,大家还是被 SSI 融资的消息震撼到了。

扩展阅读

突发!Ilya Sutskever 成立新公司 SSI,安全超级智能是唯一目标与产品

参考链接:

https://www.reuters.com/technology/artificial-intelligence/openai-co-founder-sutskevers-new-safety-focused-ai-startup-ssi-raises-1-billion-2024-09-04/

https://news.ycombinator.com/item?id=41445413

相关资讯

OpenAI 联合创始人兼首席科学家 Ilya Sutskever 宣布离职,将在未来分享新项目细节

感谢OpenAI 联合创始人兼首席科学家 Ilya Sutskever 今早在 X 发布推文,正式宣布离开 OpenAI。Ilya Sutskever 为前 OpenAI 董事会成员,曾推动罢免 OpenAI CEO 阿尔特曼 Sam Altman 的行动。IT之家附原文与翻译如下:After almost a decade, I have made the decision to leave OpenAI.  The company’s trajectory has been nothing short of m

OpenAI“宫斗”核心人物 Ilya Sutskever 出走后单飞:建立“全球首个”安全超级智能实验室

北京时间今天凌晨,原 OpenAI 公司联合创始人、首席科学家 Ilya Sutskever 在 X(推特)官宣了他正式创业的消息 —— 创办了一家名为“安全超级智能”(Safe Superintelligence,简称 SSI)的新公司,旨在创造一个“纯粹的”安全超级智能。Ilya Sutskever 表示,公司将只有一个重点、一个目标和一个产品,通过一个小型破解团队来取得“革命性”的突破,去实现追求安全超级智能的目标。同时,新公司自称是“世界上第一个”直击 SSI 的实验室。Sutskever 与 OpenAI

GPT-2能监督GPT-4,Ilya带头OpenAI超级对齐首篇论文来了:AI对齐AI取得实证结果

人类无法监督超级人工智能,但人工智能可以。过去一年,以「预测下一个 Token」为本质的大模型已经横扫人类世界的多项任务,展现了人工智能的巨大潜力。在近日的一次访谈中,OpenAI 首席科学家 Ilya Sutskever 大胆预言,如果模型能够很好地预测下一个词,那么意味着它能够理解导致这个词产生的深刻现实。这意味着,如果 AI 按照现有路径发展下去,也许在不久的将来,一个超越人类的人工智能系统就会诞生。