沃卡惠移动端logo

沃卡惠  行业资讯

资讯详情

2023年AI芯片展望

2022-12-24 09:27:284636

姊妹研究公司Omdia的数据中心IT首席分析师Manoj Sukumaran表示,随着AI部署在所有类型的企业、最终用户、云服务提供商甚至电信服务提供商中激增,对专用AI处理器的需求将在2023年继续飙升。

人工智能芯片市场有望延续过去几年的增长势头,”他说。“其中一些深度学习模型的规模超过了数万亿个参数,需要大量的计算能力来训练和部署这些模型。”

例如,Meta预计其深度学习推荐模型(DLRM)在不久的将来会增长到超过10万亿个参数,这需要zettaflop的计算来训练,数据中心IT首席分析师Sukumaran说。

2023年AI芯片展望

以下是Sukamaran对2023年AI芯片市场的预期:

2023年出货的大约200万台服务器将配备至少一个协处理器来加速某些计算工作负载,与2022年相比增长53%。其中绝大部分将是GPU、TPU和专用AI加速器。

Nvidia的H100“Hopper”Tensor Core GPU将于2023年上市。英特尔首款代号为Ponte Vecchio的数据中心GPU也有望在2023年上半年上市,而特斯拉的DOJO超级计算机及其定制芯片Dojo D1预计将于2023年上半年上市2023年末。

AI芯片市场面临整合。在过去几年中,硅初创公司蓬勃发展以迎合AI处理器市场,但2023年对其中一些公司来说将是艰难的一年,因为风险资金枯竭,而且大多数公司还没有主要收入来源。

Omdia的云和数据中心研究实践负责人Vladimir Galabov表示,由于这些初创公司在2023年难以维持生计,它们可能因此成为收购目标。

他说,英特尔在2019年以约20亿美元的价格收购了人工智能芯片制造商Habana Labs,并在2016年以约4亿美元的价格收购了深度学习初创公司Nervana Systems,此前市场出现了整合。

“不仅仅是硅,而且利用硅功能的强大软件堆栈才是这个市场上公司的区别所在。而这正是许多初创公司正在努力解决的问题,”Sukamaran说。“如果你看看市场领导者Nvidia,它最大的优势就是软件。即使是他们最大的竞争对手英特尔和AMD也没有强大的软件堆栈。”

Sukamaran说,话虽这么说,但利基市场领域将有赢家。他说,Cerebras和SambaNova Systems等初创公司已经找到了利基市场,并在AI市场中占据了很好的位置。

Galabov说,到2023年,数据中心运营商将越来越多地将特定的人工智能处理器与特定的工作负载需求相匹配,以最大限度地提高性能。

例如,在最近的AWS re:Invent大会上,Amazon Web Services表示选择了英特尔的Habana芯片用于视觉上的机器学习模型,因为它提供了更好的性能,但AWS将使用自己的Tranium芯片用于语言,因为它自己的芯片设计是他说,为了这个目的更好。

Galabov说,在更广泛的范围内,摩尔定律仍然存在。

摩尔定律指出,集成电路中的晶体管数量每两年翻一番,这意味着当今集成电路上需要大约1000亿个晶体管。

2022年,Apple推出了由1140亿个晶体管组成的M1 Ultra。他说,AMD的第四代Epyc“热那亚”芯片拥有900亿个晶体管,而英特尔即将推出的Ponte Vecchio芯片拥有超过1000亿个晶体管。

“这三款产品让我们一直走在摩尔定律的轨道上,”Galabov说。

Galabov补充说,摩尔定律有可能延续到2024年。

“如果我们今天设法制造出具有1000亿个晶体管的处理器,摩尔定律表明到2024年,我们必须达到2000亿个晶体管。目前,我认为我们很可能会接近。但到2026年,我们可能会努力跟上摩尔定律,”他说。