回到顶部
据路透社报道,由 OpenAI 前首席科学家 Ilya Sutskever 新近联合创立的SSI人工智能安全公司已筹集10亿美元现金,用于帮助开发远超人类能力的安全人工智能系统。
近年来,人工智能技术取得了显著进步,应用范围也日益广泛。然而,随着AI技术的不断发展,其潜在的安全风险也日益凸显。尤其是对于具有远超人类智能水平的超级人工智能的开发,如果设计不当或缺乏安全保障,可能会对人类社会构成严重威胁。例如,超级智能系统可能做出违背人类意愿或危害人类利益的决策,甚至可能威胁到人类的生存。因此业界对AI安全问题的重视程度不断提高,越来越多的企业和研究机构开始投入资源研究AI安全问题,以确保AI技术的健康发展和应用。
从左至右依次是格罗斯、苏茨克维、利维
消息人士透露,这家新公司的名称为Safe Superintelligence Inc.(SSI),由伊尔亚·苏茨克维(Ilya Sutskever)与前苹果高管Y-Combinator合伙人丹尼尔·格罗斯(Daniel Gross)以及前OpenAI研究员丹尼尔·利维(Daniel Levy)共同创立。伊尔亚·苏茨克维是OpenAI的联合创始人及前首席科学家,他在人工智能领域有着深厚的背景和卓越的贡献。丹尼尔·格罗斯和丹尼尔·利维也都在科技和人工智能领域拥有丰富的经验和专业知识。
SSI位于美国,在加利福尼亚州帕洛阿尔托和以色列特拉维夫设有办事处。该公司在成立后的三个月内,通过首轮融资已筹集了10亿美元,据透露业内对其估值高达50亿美元。目前团队仅有10人,公司正计划用首轮融资资金来进行技术投入和人才引进,力求组建出一支由世界上最优秀的工程师和研究人员组成的精干、严谨的团队,专注于超级人工智能的安全。
此次SSI的融资凸显出,很多投资者非常关注人工智能安全领域,并愿意对专注于人工智能研究的杰出人才进行投资。目前已知投资方包括Andreessen Horowitz(a16z)、红杉资本、DST Global、SV Angel以及由Nat Friedman和SSI首席执行官Daniel Gross运营的投资合伙企业NFDG等。丹尼尔·格罗斯在接受采访时表示:对我们来说,重要的是要有投资者理解、尊重和支持我们的使命,我们的使命是直接进入安全的超级智能,特别是在将产品推向市场之前花费几年时间进行研发。
SSI致力于追求人工智能的安全,特别是超级智能的安全。公司将其使命、名称和整个产品路线图都聚焦于“安全的超级智能”(SSL),并计划在确保安全始终领先的同时,尽可能快地提高AI能力。超级智能被认为是触手可及的技术挑战,而SSI则希望通过革命性的工程和科学突破来解决这一问题。SSI强调其专注意味着不会受到管理费用或产品周期的干扰,其业务模式也意味着安全、保障和进步都不会受到短期商业压力的影响。
伊尔亚·苏茨克维在OpenAI期间就主张上规模,认为规模带来涌现,量变带来质变。这一理念也体现在他创立SSI的决策中,他希望通过加大运算量和规模来解决人工智能的安全问题。同时伊尔亚·苏茨克维对于超级智能的出现持乐观态度,并认为这将是未来不可避免的趋势。他希望通过SSI的努力,能够确保超级智能的安全和可控性。伊利亚·苏茨克弗在接受采访时提到,他们将采用与OpenAI不同的方式来对AI和算力技术进行“扩展”,并且SSI计划与云提供商和芯片公司合作,为其计算能力需求提供资金。
SSI致力于追求人工智能的安全有助于推动AI技术的健康发展。通过加强安全保障措施,可以降低AI技术的潜在风险,使其更好地服务于人类社会。其团队作为AI安全领域的佼佼者,其研究和实践成果可能会对AI安全领域的发展方向产生重要影响。通过不断探索和创新,SSI有望为AI安全领域的发展提供新的思路和方法,推动整个行业的进步和发展。