亚马逊、微软、谷歌等大厂已推出或计划发布8款服务器芯片和云端AI芯片
5月9日报道,据The Information报道,亚马逊、微软、谷歌等美国科技大厂已经推出或计划发布8款服务器芯片(CPU)和云端AI芯片,用于内部产品开发、云服务器租赁业务或两者兼而有之,在研芯片集中采用5nm工艺节点。
当前这些科技大厂共计斥资数十亿美元开发和生产为服务器和AI(人工智能)提供动力的微芯片。芯片项目正成为它们在云计算和AI领域降低成本和赢得企业客户战略的关键组成部分。
亚马逊、微软、谷歌主要致力于为其数据中心开发两种类型的芯片:标准计算芯片以及用于训练和运行机器学习模型的专用芯片。
据The Information报道,亚马逊在2015年收购了以色列芯片设计公司Annapurna Labs,是唯一一家在服务器中提供这两种芯片的云大厂;谷歌云在2015年推出了一款用于AI工作负载的芯片,目前正在开发一款标准服务器芯片;微软2019年开始研发芯片的时间晚于其竞争对手,目前正在开发一款服务器芯片和一款AI芯片。
一、自研服务器芯片:亚马逊领跑,微软谷歌被曝正在研发
自研服务器芯片和AI芯片都有助于进一步降低运营数据中心的成本。
云计算大厂自研的服务器芯片通常均采用Arm架构,相比英特尔和AMD等主流服务器芯片企业提供的x86芯片具有更高性价比、更低功耗。Arm长期是智能手机芯片的主流架构,如今正成为更多新款服务器芯片的选择。
亚马逊云计算部门AWS在服务器芯片研发落地上处于领先地位,2018年就发布了第一代Graviton服务器芯片,2019年、2021年发布了第二代、第三代服务器芯片Graviton2、Graviton3。
据直接了解项目的人士透露,微软的服务器芯片代号为Cascade,最早可能于明年推出。这个名字和时间表之前没有被报道过。
与此同时,据the Information报道,谷歌的芯片团队正在开发两种基于Arm的服务器芯片,最早可能在2025年用于谷歌服务器。
二、自研 AI 芯片: TPU 团队并入谷歌云,微软 AI 芯片最早明年推出
OpenAI的ChatGPT发布后,人们对AI的兴奋促使这三家科技大厂都做出了改变。
ChatGPT在微软的Azure云上运行,使用了英伟达等公司的芯片,微软也一直在将OpenAI的软件整合到Bing搜索引擎和办公软件全家桶中。这项工作需要大量的计算能力,以至于微软为开发AI的内部团队配给了服务器硬件。
在谷歌,负责制造TPU(张量处理单元,谷歌AI芯片)的工程团队已经转移到谷歌云。据The Information最近报道,该云计算团队现在可以为TPU和运行在TPU上的软件制定路线图,以期向云客户租用更多由TPU驱动的服务器。
当前英伟达GPU是加速AI训练的主力芯片。亚马逊、谷歌、微软均在为关键的内部产品开发定制AI专用芯片,以实现更快计算速度、更低功耗。它们还将自研芯片租给云计算客户。
亚马逊的自研AI芯片版图包括推理芯片Inferentia和训练芯片Trainium。亚马逊首席财务官布莱恩·奥尔萨夫斯基在上周的财报电话会议上告诉投资者,该公司计划将支出从零售业务转移到AWS,部分原因是为了投资支持ChatGPT等应用所需的基础设施。亚马逊的一位发言人拒绝详细说明这笔钱将花在什么地方,但根据公司年报,其基础设施成本包括芯片。
据The Information报道,自2019年以来,微软一直在开发一种定制的专用芯片,用于为大型语言模型提供动力。近日,微软加快了推出用于开发大型语言模型的AI芯片的时间表。
微软计划最早于明年推出代号为Athena的芯片,用于内部AI和OpenAI的开发。据一位知情人士透露,微软仍在讨论是否向其Azure云计算服务的客户提供这些芯片。
结语:自研芯片的回报还远未确定
据此前对客户的采访以及这些公司披露的性能数据,亚马逊的Graviton服务器芯片、亚马逊和谷歌的云端AI芯片在性能上已经可以与传统芯片制造商的芯片相媲美。
但自研芯片的回报还远未确定。科技大厂无法像英特尔、AMD、英伟达等主流芯片企业那样从规模经济中受益。与此同时,科技大厂们面临着招聘芯片工程师、说服开发人员使用其定制芯片来开发应用程序等方面的挑战。
来源:The Information