Meta首席财务官Susan Li在摩根士丹利主办的科技行业会议上对外披露,公司正持续推进定制化芯片自研计划,未来将逐步拓展自研芯片的应用范围,最终实现向AI模型训练领域的延伸,进一步完善自身AI算力支撑体系。
作为全球科技巨头,Meta虽非云计算服务提供商,却已成为AI模型训练与运行领域的超大规模数据中心运营商,对AI芯片有着海量且多样化的需求。Susan Li介绍,目前Meta自研芯片主要应用于排名与推荐类工作负载,这类定制芯片针对公司内部业务场景进行了专项优化,适配性与运行效率表现良好。在此基础上,公司计划逐步扩大自研芯片的应用边界,最终覆盖AI模型训练这一核心场景,为未来AI技术迭代提供更贴合自身需求的算力支撑。
在推进自研芯片的同时,Meta也在通过多元化采购策略保障当下AI业务的算力需求。据悉,过去数周内,Meta已相继与芯片行业头部企业英伟达、AMD达成大规模采购协议,引入支撑AI工作负载所需的芯片与相关设备,构建起“外购+自研”的混合算力供应体系。
Susan Li强调,Meta采取的是差异化芯片选型策略,核心是根据不同应用场景的需求,选择最适配的处理器。“定制芯片是我们芯片布局中的关键一环,结合当前掌握的技术与业务需求,我们会合理搭配外购与自研芯片,实现资源的最优配置。”她表示,Meta的自研芯片并非为了取代外部采购,而是通过定制化优化,满足内部高度个性化的工作负载需求,进而提升算力运行效率,控制长期运营成本。
据悉,Meta自2020年启动自研芯片项目(MTIA项目)以来,已逐步实现推理专用芯片的成熟落地,目前已在全球多个数据中心部署,用于支撑Facebook、Instagram等平台的推荐算法。此前,Meta曾尝试推进两款训练芯片的研发,但因设计难度、软件适配等问题先后调整相关计划,此次官宣延伸至AI模型训练领域,标志着其自研芯片战略进入新阶段。
行业分析认为,当前全球AI芯片市场需求持续攀升,头部科技企业纷纷布局自研芯片已成为行业趋势,核心是实现“全栈优化+成本可控+供应链安全”。Meta采取的“先推理、后训练”“外购保当下、自研谋长远”的路径,既保障了当前业务的稳定推进,也为长期算力自主奠定了基础,其混合供应体系的构建,也为行业提供了可参考的算力布局思路。未来,随着自研芯片技术的不断成熟,Meta有望进一步提升AI算力自主可控能力,为生成式AI、多模态模型等领域的发展提供更有力的支撑。
免责声明:本文信息来源于公开报道及企业官方发布,仅供资讯参考,不构成投资建议或产品使用推荐。平台对内容的准确性、完整性及及时性不做保证;如涉及侵权或内容错误,请及时与我们联系,我们将第一时间处理。用户据此操作产生的风险自行承担。