人工智能初创公司Cerebras今日宣布推出Cerebras Inference,据称是世界上最快的人工智能推理解决方案。该公司表示:“Cerebras Inference为Llama 3.18B每秒提供1800个token,为Llama 3.170B每秒提供450个token,比基于英伟达(NVDA.US)GPU的超大规模云快20倍。”
Cerebras Inference由第三代晶圆级引擎(WaferScaleEngine)提供动力,同时由于消除了内存带宽障碍,速度更快。Cerebras称其GPU解决方案的推理成本是微软Azure云计算平台的三分之一,而使用的功率是微软Azure云计算平台的六分之一。
该公司表示:“Cerebras通过制造世界上最大的芯片,并将整个模型存储在芯片上,解决了内存带宽瓶颈。”“凭借我们独特的晶圆级设计,我们能够在单个芯片上集成44GB的SRAM,从而消除了对外部存储器和连接外部存储器和计算机的慢速通道的需求。”
提供人工智能模型独立分析的人工智能分析公司(Artificial Analysis)联合创始人兼首席执行官MicahHill-Smith表示:“Cerebras在人工智能推理基准方面处于领先地位。Cerebras为Meta的Llama3.18B和70BAI模型提供的速度比基于GPU的解决方案快一个数量级。我们在Llama3.18B上测量的速度超过每秒1800个输出token,在Llama3.170B上测量的速度超过每秒446个输出token,这是这些基准测试中的新记录。”
他称,“凭借推至性能前沿的速度和具有竞争力的价格,Cerebras Inference对具有实时或大容量需求的人工智能应用程序的开发人员特别有吸引力。”
值得一提的是,这可能会在整个人工智能生态系统中产生连锁反应。随着推理变得更快、更高效,开发人员将能够突破人工智能的极限。曾经因硬件限制而受阻的应用程序现在可能会蓬勃发展,并激发出此前被判定为不可能的创新。不过, J. Gold Associates 分析师杰克·戈尔德 (Jack Gold) 也提出,“但在我们获得更具体的现实基准和大规模运营之前,现在估计它到底有多优越还为时过早。”
本月早些时候,Cerebras提交了首次公开募股(IPO)申请,预计将于今年下半年上市。该公司最近还任命了两名新的董事会成员:曾在IBM(IBM.US)、英特尔(INTC.US)和西班牙电信(TEF.US)担任高管的格伦达多查克;以及VMware和Proofpoint前首席财务官保罗·奥维尔(Paul Auvil)。
这家初创公司还向上市迈出了重要的一步,本月早些时候聘请鲍勃科明(Bob Komin)担任首席财务官。Komin曾在Sunrun担任首席财务官,领导了该公司的IPO流程。他还曾在被雅虎收购的Flurry和被微软(MSFT,US)收购的TellmeNetworks担任CFO。
Cerebras首席执行官兼联合创始人AndrewFeldman说,“鲍勃在他的职业生涯中一直是一个关键的运营领导者,在几家公司担任创业高管,这些公司发明了重大的技术和商业模式创新,并迅速成长为行业领导者。他在成长期和上市公司的务领导方面的丰富经验对Cerebras来说是非常宝贵的。”