蓝鲸新闻6月20日讯(记者 朱俊熹)当地时间6月19日,原openai联合创始人、首席科学家ilya sutskever在社交平台x上正式宣布了他离职后的创业项目——一家名为“安全超级智能”(ssi,safe superintelligence inc.)的新公司。
据公司金沙娱场城app官网介绍,其目标和产品只有一个:安全的超级智能。该公司将ssi视作唯一的重点,在尽快提高性能的同时,也会确保安全性始终处于领先地位。新公司还强调,所追求的安全、保障和进步不会受到短期商业压力的影响。
ilya sutskever对媒体表示,“这家公司的特殊之处在于,它的第一个产品将是安全的超级智能。在此之前,它不会做任何其他事情。它将完全不受外界压力的影响,不必处理庞大而复杂的产品,也不必陷入竞争激烈的赛跑中。”
在某种程度上,这也是ilya sutskever对老东家openai关于安全主义和加速主义之争的回应。openai在创立初期的主要目标是研发能够达到甚至超越人类智能的通用人工智能(agi),确保它能够造福人类并规避潜在的安全风险。但庞大的研发资金需求让openai开始与科技巨头微软进行合作,转向商业化的道路,偏离了最初的目标,也遭受了发起人之一马斯克的猛烈抨击。
ilya sutskever此前在openai曾负责推动超级对齐团队,该团队旨在研究如何确保超级智能不会做出违背人类意愿或危害人类利益的行为。该团队的另一位共同领导者jan leike也和ilya sutskeve同步宣布离开openai,并指控openai公司“将闪耀的产品置于安全性之上”,超级对齐团队被曝已实质解散。
如何在巨额的研发支出之下找到可以持续的发展路径,是所有ai企业面对的共同问题。ssi在介绍中指出,团队、投资者和商业模式都致力于实现安全超级智能。该公司并未公布投资者身份和筹集到的资金数,但其中一位联合创始人透露,“在我们面临的所有问题中,筹集资金并不是其中之一。”
ssi创始团队的专业阵容或能吸引投资者的押注。ilya sutskever是世界顶级的ai研究人员,在openai的崛起和chatgpt的推出中功不可没。其他两位联合创始人还包括前openai研究员daniel levy和曾负责苹果ai的daniel gross,后者还投资过perplexity、character.ai等ai初创企业。
ssi所瞄准的超级智能在agi的基础上更向前推进了一大步,指的是远超人类智能水平的人工智能系统。ilya sutskever没有透露具体的构建路径,但称安全超级智能应当具备不会大规模伤害人类的特性。他提到,ssi将尝试通过嵌入人工智能系统的工程突破来实现安全,而不是依靠临时应用于技术的防护措施。
目前绝大多数ai公司仍将实现agi作为使命和愿景,并希望能通过大语言模型到达这一目标。但无论是agi还是超级智能,业界对于其定义和标准都尚未形成共识。而ssi的公司公告中,第一句话便是“超级智能已经触手可及”。
2024-06-20
2024-06-20
2024-06-20
2024-06-20
2024-05-15
19小时前
19小时前
19小时前
19小时前
19小时前
19小时前
19小时前
19小时前
19小时前
19小时前
金沙娱场城app copyright © 2024 金沙娱场城app-老版金沙app下载客户手机端 北京智识时代科技有限公司 金沙娱场城app的版权所有