成立仅三个月,由 OpenAI 联合创始人 Ilya Sutskever 创办的 AI 新创公司Safe Superintelligence (SSI) 就已筹集 10 亿美元资金。据《金融时报》 报道,由风险投资公司 Sequoia 和 Andreessen Horowitz 领投的最新一轮投资对该公司的估值约为 50 亿美元 。
苏茨克弗于今年 5 月离开 OpenAI,原因是他试图罢免首席执行官山姆·奥特曼 (Sam Altman),但未能成功。他成立了 SSI,以开发“安全”的人工智能模型。该公司的使命是创建既功能强大又符合人类利益的人工智能系统。
“我们已经确定了一座新的山峰需要攀登,它与我之前从事的工作略有不同。我们不会试图更快地走上同一条路。如果你做一些不同的事情,你就有可能做一些特别的事情,”苏茨克维尔告诉《 金融时报》。
这笔巨额资金将用于购买 AI 模型开发所需的计算资源,并扩大 SSI 目前 10 名员工的团队。该公司正在加利福尼亚州帕洛阿尔托和以色列特拉维夫积极招聘并提供职位。
SSI 专注于安全性和协调性,其方法与其他 AI 公司不同。以OpenAI、Anthropic和Elon Musk 的 xAI等公司为例,它们都在为各种消费者和商业应用开发 AI 模型。而 SSI 则专注于创建所谓的“安全超级智能的直接途径”。
SSI 首席执行官丹尼尔·格罗斯 (Daniel Gross) 在给 路透社的声明中强调了这种专注方法的重要性:“对我们来说,重要的是身边有能够理解、尊重和支持我们使命的投资者,我们的使命是直接进入安全超级智能领域,特别是在将产品推向市场之前花费几年时间进行研发。”
值得一提的是,尽管该公司尚未推出产品,但其高额估值和融资额凸显了人们对安全人工智能研究的浓厚兴趣和投资。与此同时,人们越来越担心日益强大的人工智能系统可能带来的风险。
据报道,苏茨克弗离开 OpenAI 也是因为对公司的发展方向和人工智能发展速度存在分歧。在 OpenAI,他领导着“协调”团队,该团队致力于确保先进的人工智能系统能够符合人类的最佳利益。
但有一点很明显,SSI 的成立及其快速融资的成功反映了人工智能行业在提高能力的同时解决安全问题的广泛趋势。这种方法与人工智能研究人员和伦理学家呼吁更负责任地开发人工智能的呼声相一致。
如今,SSI 加入了资金雄厚的 AI 公司竞争领域。据报道,OpenAI 正在洽谈以超过 1000 亿美元的估值筹集资金,而 Anthropic 和 xAI 最近的估值约为 200 亿美元。
然而,拥挤的市场并没有削弱 SSI 对安全的独特关注或其高调的创始团队,这两者都显然引起了投资者的共鸣。
该公司网站称:“我们正在组建一支精干的团队,由世界上最优秀的工程师和研究人员组成,他们专注于 SSI,不做其他任何事情。我们为您提供一个从事毕生事业的机会,帮助解决我们这个时代最重要的技术挑战。”
目前,该公司的进展将受到科技行业和那些关注人工智能发展伦理影响的人士的密切关注。
原创文章,作者:点点,如若转载,请注明出处:https://www.dian8dian.com/openai-lian-he-chuang-shi-ren-de-safe-superintelligence-inc