Arm:开源模型增加算力需求 软件生态是关键|巴展一线
【财新网】“DeepSeek等开源模型出现带动推理算力需求,短期内模型训练仍需要更多算力,而长远来看,大部分算力将用于模型推理而不是训练,这将进一步推动对算力的需求,”当地时间3月4日,英国芯片架构企业Arm的高级副总裁兼基础设施事业部总经理 Mohamed Awad在巴塞罗那通信展期间接受财新专访时称。
Mohamed Awad指出,未来AI模型的推理将发生在包括云端和手机、汽车等几乎每一个智能终端设备上,端侧的模型推理需求将带动AI算力需求指数级增长,而Arm架构的芯片软件开发生态统一是其最大优势,这意味着开发者只需要开发一套软件就可以在从云端到边端的设备上运行。
此前数据中心AI计算CPU芯片(中央处理器)对应多个GPU(图形处理器,最初被用于图像渲染)的模式,对CPU芯片的总体需求并不大。2023年3月,英伟达将自家基于Arm架构研发的CPU Grace和当时最新的GPU H100封装一体,大幅提高了GPU的利用率,此后CPU和GPU的组合成为了英伟达AI芯片的标配。同时,许多在AI数据中心中发挥重要作用的网络芯片也是基于Arm架构设计。
根据Arm统计,其产品在云计算相关产品中的市场份额从2022财年的9%上升至2024财年的15%,在网络产品中的市场份额也
从2022财年的23%,增长至2024财年的28% 。
Chris Bergey 进一步指出,尽管Arm也开发了部分软件开发生态相通的NPU核心,但目前更多手机厂商希望自研NPU,但对硬件做的升级商业回报仍待探索,
“AI手机目前的一个困境是手机厂商在芯片、内存升级花费的钱还没有赚回来,目前手机厂商都基于自研架构推出NPU,希望打造自己的差异化产品,这是否是一笔正确的投资,5年内或许可以见分晓。” 他说。
有删节,点击
阅读原文。