周周升级月月上新的AI芯片都是啥?5分钟搞明白AI芯片
一键生成会议纪要,一句话创造一个AI应用,曾经费时费力的任务,如今在AI的帮助下变得轻而易举。AI的“魔法”不仅仅体现在这些日常办公的场景中,它还在改变着我们的生活方式。从智能推荐系统为我们提供个性化的娱乐选择,到自动驾驶技术让出行更加安全和便捷,AI无疑正在为我们的生活带来前所未有的便利与高效。
然而,这一切的“魔法”背后,有一个不可或缺的“魔法师”——AI芯片。它就像AI的“大脑”,处理着海量的数据,驱动着各种复杂的算法。为了应对AI应用对硬件性能的更高要求,科技巨头们纷纷推出了自家的AI芯片,如NVIDIA的H200、谷歌的TPU,以及被Intel、AMD、高通和苹果等集成在电脑产品中的NPU。
AI芯片如今已成为科技巨头们竞相研发的重点产品,每天都有大量的新闻和最新进展报告,今天我就带大家好好扒一扒这些AI芯片。
GPU:NVIDIA H100/200、AMD Instinct MI300、Intel Gaudi 3
提到AI就会让我们想到GPU,好像GPU已经和AI深度绑定了!确实,在人工智能(AI)领域,图形处理器(GPU)具有先天的优势。GPU的高效并行处理能力使其成为AI算法中数学计算的理想选择,特别适合处理AI中大量的矩阵运算和深度学习任务。相比于中央处理器(CPU),GPU能够更快地执行复杂的计算任务,从而大幅提高AI模型的训练和推理速度。
此外,GPU的并行架构也使其能够同时处理多个数据块,这对于处理AI中的大规模数据集至关重要。在深度学习领域,GPU的这种能力被广泛应用于加速神经网络的训练和推理过程,从而显著提升了AI应用的性能和效率。
不仅如此,GPU还提供了高度优化的库和工具,使得开发人员能够更轻松地实现高效的AI算法。这些库和工具为AI研究人员和工程师提供了强大的支持,使他们能够更快速地开发出高效的AI应用。
目前比较具有代表性的产品包括NVIDIA H100/200、AMD Instinct MI300等。由于大型科技公司如谷歌、微软等,都在云端大量部署了大量GPU,以提供强大的算力支持,于是NVIDIA凭借GPU成功跻身万亿市值俱乐部。
FPGA:AMD Versal AI Edge
FPGA相比于CPU、GPU对于普通用户来说似乎很陌生,简单来说FPGA相当于一种“万能”芯片,它可以根据需要被重新编程,执行各种不同的任务。这意味着,如果你需要执行某种特定的计算任务或者处理某种特定的数据,你可以通过编程来“定制”FPGA上的硬件逻辑,使其以最高效的方式完成这项工作。这就像是你可以根据需要,随时更换瑞士军刀上的工具一样。
因此,FPGA在需要高度定制化和灵活性的应用中表现出色,使得FPGA能够适应不同的AI需求,并通过硬件级别的优化提升性能,常见于深度学习加速、视频图像处理、自然语言处理等。
FPGA的优势在于其高性能、低延迟以及强大的并行计算能力,这使得它在处理复杂的AI算法和大规模数据时表现出色。同时,FPGA还具有成本效益和功耗优势,非常适合于功耗敏感或需要长期运行的应用场景。
ASIC:Google TPU、AWS Trainium、Azure Maia
在AI领域,各大科技巨头如Google、AWS和Azure都开发了自己的专用AI加速芯片,如Google的TPU(Tensor Processing Unit)、AWS的Trainium以及Azure的Maia。这些芯片都是ASIC(应用特定集成电路)的一种,专为各自公司的AI服务而定制开发,以提供高效的计算能力和优化的性能。这些芯片通常不单独对外销售,而是作为公司内部服务的一部分,用于提升自身的AI处理能力和服务质量。
相比之下,NVIDIA、AMD和Intel等公司则专注于生产面向广泛市场的AI加速硬件,如针对AI优化的GPU(图形处理单元)。这些公司的产品可以被各种不同的公司购买和使用,以满足其在AI应用运算方面的需求。简而言之,前者是科技公司为自家服务定制的“私家芯片”,而后者则是面向市场的“大众芯片”。
类脑芯片:IBM TrueNorth、Intel Loihi 2
类脑芯片是一种全新的处理器,其设计灵感来自于模仿人脑神经系统的结构和功能。不同于传统的基于冯·诺依曼架构的CPU/GPU芯片,类脑芯片借鉴了神经科学和仿生学的理念,通过模拟神经元的连接和信息传递方式,实现了高效的并行计算和自适应学习能力。
在人工智能领域,类脑芯片展现出诸多独特优势。首先,大规模并行的神经元结构使其计算能力远超传统芯片,能同时高效处理海量数据。其次,类脑芯片具备神经可塑性,可根据应用场景自主优化网络权重,不断提升智能化水平。此外,低功耗的事件驱动设计也使类脑芯片尤为适用于移动端和物联网等对能耗敏感的领域。
目前,IBM和英特尔是类脑芯片研发的代表性公司。IBM的TrueNorth是神经形态计算领域的开拓者之一。而英特尔最新推出的Hala Point系统则基于Loihi 2神经拟态处理器,集成了140544个神经形态处理核心,总计模拟11.5亿个神经元和1280亿个突触连接,实现了每秒20千万亿次运算的极高效能,能效比远超GPU和CPU架构,开辟了类脑计算的新境界。
那么问题来了,Intel、AMD、高通和苹果等集成在电脑处理器里的NPU,算是什么呢?
NPU(神经网络处理器)属于ASIC(专用集成电路)类型的AI芯片,主要优势在于专门为AI推理场景量身定制,在算力密度、能效比和低延迟推理性能方面都有天然优势。英特尔NPU、苹果Neural Engine、高通Hexagon AI Engine等都针对移动/物联网等终端设备场景进行了优化,与云端的大规模AI加速器(如Google TPU、AWS Trainium)定位不同。
相比之下,GPU作为通用的并行计算加速器,由于架构灵活、并行度高,非常适合深度学习的训练过程。但GPU在推理加速方面还有待进一步优化,无法像专用的NPU那样获得极致的能效比和低延迟表现。
总的来说,NPU是为AI推理过程量身定制的高效加速芯片,而GPU则是通用加速器,更适合训练环节。两者在AI加速领域形成良好的分工和互补。因此,针对终端用户的AI个人计算机,intel、AMD、高通、微软都将CPU+GPU+NPU的本地异构算力作为AI PC定义的必要条件。这种融合多种处理核心的混合架构,能够最大限度地发挥不同硬件的长处优势,为AI计算带来卓越的综合性能。
但是NVIDIA表示不服,它认为有了RTX独立显卡才是真AI PC!
当然,NVIDIA绝对有底气来挑战AI PC的定义,因为在AI时代,算力是至关重要的,目前大多数NPU都是与CPU和集成显卡芯片一体化设计,功耗受到一定限制,使用场景主要围绕持续低负载的AI任务,如视频会议增强、图像处理等,算力通常在10-45TOPS的范围。
相比之下,英伟达凭借多年来在GPU研发上的深耕细作,推出了堪称"地表最强"的RTX系列显卡。单张RTX显卡的AI加速能力即可轻松突破100TOPS,旗舰型号更是高达1300+TOPS的骇人水准,完全能够承载本地的大型语言模型等复杂AI工作负载。
此外,英伟达在AI软件生态建设上也未馀遗力。全球范围内已有125+款RTX加速的AI应用横跨图像/视频编辑、3D建模渲染等多个领域,可为创作者和开发者带来高达10倍的性能提升。配合英伟达独有的AI SDK,开发者能够最大限度地挖掘RTX显卡的AI加速潜能。
不可否认,NPU的确凭借低功耗设计在持续性AI任务上表现出众,但要论及极致算力和通用AI应用加速,英伟达RTX系列仍是当前无可匹敌的王者级方案。在终端AI的蓬勃发展时代,硬件供应商们在推进异构架构整合的同时,也将在算力大战中激烈竞逐。
不吹不黑,国产AI芯片,和英伟达的差距,到底有多大?
最近又有消息称,某互联网大厂,计划大规模采用国产AI芯片,而放弃英伟达的芯片。
当然,对于这样的消息,大家肯定也不会太过于惊讶,这是多重原因造成的,英伟达的禁售,美国的卡脖子,中国AI芯片的崛起等等原因交集在一起,必然会有国产替代。
不过,在这好消息的背后,我们还是有必要,了解一下目前国产AI芯片和英伟达的差距,知己知彼嘛。
先说说英伟达的AI芯片水平,下图是英伟达主流AI芯片的参数情况,从A100,到H100,H200,GH200、B100、B200、GB200等。
可以看到,A100是最差的,但表现已经非常俗了,FP16算力高达312T,NVLINK带宽高达600GB/S,功率是400W,至于GB200,则是最强的,FP16算力达到5P,NVLINK带宽是3.6TB/S,功率是2700W。
接着直接上图,对比国产的一些在售的,主流的AI芯片参数,其主要参数指标,来自于网上,不一定完全准确,但应该差不太多。
可以看到,几乎所有的国产AI芯片,都不如英伟达最差的A100这颗芯片,更不要拿H100、H200、B100、B200、GB200这些来对比了。
所以说,不吹不黑,单说性能等,国产AI芯片,远远不是英伟达的对手,英伟达拿出最差的A100出来,都能将大家打趴下。
另外,英伟达在生态方面,还有CUDA,目前全球90%的AI模型,都是基于CUDA训练出来的,可见,如果从硬件性能、生态环境来看,国产AI芯片,完全和英伟达没有可比性。
这个就是当前客观存在的差距,也是事实,谁也无法回避。
不过,对于AI芯片而言,大家还要注意另外一个问题,那就是是可以集群的,一张芯片不行,我用两张,用三张,用10张,100张。
那么多卡集群之后,差距就会缩小,就看成本投入多大,决心有多高,这个也是为何国内厂商们,明明看到国产AI芯片,单卡性能不行,还会支持的原因,因为我可以多买一些啊。
毕竟英伟达的芯片再强,买不到又能怎么样呢?
由此可见,虽然目前国产AI芯片,和英伟达的差距明显,但未来随着国产厂商们的支持,市场越来越大之后,国产AI芯片崛起是必然的。
这也是为何英伟达一再表示,如果美国不准英伟达的AI芯片卖给中国,未来美国厂商将永久失去这一市场的原因。
一旦中国AI芯片崛起,生态也慢慢完善后,谁还买英伟达?
相关问答
ai芯片按照功能分类?
从功能上可以分为Training(训练)和Inference(推理)两个环节。一、Training环节通常需要通过大量的数据输入,或采取增强学习等非监督学习方法,训练出一个复杂...
如何快速了解AI芯片?
本来想把各大门派介绍一下,但魏老珠玉在前,就不班门弄斧了。建议去看AI芯片秘籍:人工智能芯片技术白皮书。看完后会立刻功力大进!本来想把各大门派介绍一下,但...
AI芯片和传统芯片有何区别?
先回答问题,(1)性能与传统芯片,比如CPU、GPU有很大的区别。在执行AI算法时,更快、更节能。(2)工艺没有区别,大家都一样。至少目前来看,都一样。所谓...目前对...
为什么ai芯片只有英伟达?
AI芯片不止有英伟达,但英伟达是在AI领域内最著名和最常用的GPU供应商之一。英伟达的GPU在深度学习应用中表现良好,具有高性能、低延迟和高能效的特点,可以快...
华为自研达芬奇架构用于哪些芯片?
1华为自研达芬奇架构NPU用于华为发布全新8系列手机SoC芯片麒麟810。2达芬奇架构实现业界领先端侧AI算力,在业界公认的苏黎世联邦理工学院推出的AIBenchmar...
ai需要什么半导体芯片?
不同种类的芯片适用于不同的场景。GPU和CPU适合消费和企业级;FPGA更适用于企业用户,尤其是对芯片的可重复配置需求较高的军工和工业电子领域,非常适合在云...
AI芯片和显卡芯片的区别?
AI芯片和显卡芯片的主要区别在于其设计和功能侧重。显卡芯片主要用于图形渲染和显示输出,它是一种专门的图形处理器,能够处理大量的图形数据,提高图像的渲染速...
马云研究出了什么芯片?
阿里巴巴发布了第一款AI芯片——含光800,无疑给芯片行业投下了一颗重磅炸弹,瞬间成为新闻焦点。阿里CTO张建峰在会议展示这块芯片和参数,含光800有着领先世界...
华为的ai芯片谁生产的?
华为手机的ai芯片是自己制造的,该芯片名为海思麒麟。华为技术有限公司是一家生产销售通信设备的民营通信科技公司,主要创始人任正非,成立于1987年,总部位于...
AI芯片与算力芯片发展前景?
AI芯片与算力芯片是当今科技领域的重要发展方向,它们在人工智能、云计算、大数据等领域具有广泛的应用前景。随着技术的不断进步和应用需求的不断增加,AI芯片...