技术资料
HOME
技术资料
正文内容
什么是人工智能芯片 什么是AI芯片?
发布时间 : 2025-07-16
作者 : 小编
访问数量 : 23
扫码分享至微信

什么是AI芯片?

数据显示,2017年芯片市场总收入超过4000亿美元,预计2018年还将继续增长。

随着嵌入式AI芯片各种智能终端设备应用的增加,一般的处理器已经无法满足终端设备智能特性的需求,所以越来越多的芯片制造商开始侧重开发AI芯片,AI芯片初创公司也越来越多,大量风投正涌入AI芯片市场,整个AI芯片市场正蓬勃发展。

AI芯片也被称为AI加速器或计算卡,即专门用于处理人工智能应用中的大量计算任务的模块(其他非计算任务仍由CPU负责)。

要想了解AI芯片,必须先了解目前AI芯片的主要处理器类型和其应用领域的领先企业。

AI芯片类型

CPU(中央处理器)专为通用计算设计,主攻计算和逻辑控制功能,能高效处理单个复杂计算顺序任务,但在大量计算方面表现低能。

GPU(图形处理器)最初是用于图像处理,现已成功应用在AI芯片上。GPU包含数千个内核,能同时处理数千个线程,可并行运行大量计算。

FPGA(现场可编程门阵列)是可编程逻辑芯片,擅长处理短小而密集的数据访问。FPGA芯片允许用户通过微小的逻辑块对电路路数编程,可以处理任何类型的数字函数。

ASIC(专用集成电路)是客制化的特殊规格集成电路,由特定使用者要求和特定电子系统的需要而设计制造,相比FPGA,客制化的ASIC一旦投产就无法更改。

其他芯片类型,如神经网络处理器(NPU),具有模拟人类大脑的体系结构,现在处于发展早期,未来有可能成为AI芯片主流。

当下,专用AI芯片能提供给机器学习技术需要的训练算法和高运行计算能力,其需求正快速增长。

AI芯片应用领域

AI芯片主要有三个应用领域:训练层、云计算层和边缘设备计算层。

1、训练层

数据训练是用算法分析数万亿个数据样本深度学习,并最终对现实世界做出智能回应。目前芯片制造商不仅需要提升处理器性能,还需要提供整个芯片系统—包括硬件,框架和其他支持工具—才能让开发人员缩短AI技术开发流程。目前来说,NVIDIA和谷歌等公司是AI芯片数据训练应用的领先企业。

NVIDIA是数据训练的先行者,其开发人员研发了GPU的并行计算架构可以加速深度学习训练过程。NVIDIA借此契机转攻AI,并开发了一种专注于深度学习加速的新GPU架构Volta,这种GPU现已广泛用于机器学习算法训练,NVIDIA由此而在硬件数据训练市场中占有一席之地。

谷歌已开发出TPU(Tensor Processing Units)和NVIDIA相竞争,TPU是专为深度学习和Google的TensorFlow框架而设计的一种ASIC。谷歌表示,其TPU可提供180万亿次浮点运算性能,是NVIDIA最新数据中心GPU Tesla V100的六倍。基于AlphaGo和数百万用户的云服务,谷歌未来将在数据训练市场上拥有巨大潜力。

2、云计算层

一个成熟的机器学习模型,要想应用在AI领域(如图像识别或机器翻译),其设计过程极其复杂,而一般的推理计算密集度过高而无法应用在边缘设备上,所以在AI应用领域采用云计算是必须的。

数千人同时使用一个应用程序时,云服务器的功能需要足够强大才能支撑复杂的运算。FPGA擅长处理低延迟和计算密集型任务,允许云服务公司修改芯片,所以FPGA芯片可以成为云服务器功能需求的首选。现在很多传统芯片制造商,云服务供应商和初创公司已经在寻找开发FPGA解决方案。

英特尔是开发异构计算技术的公司之一。2015年英特尔收购了芯片制造商Altera升级其FPGA技术,现已开发出用于深入学习云计算的CPU + FPGA混合芯片,这种混合芯片具备两种处理器的优势,不仅可提供计算能力,而且还有高内存带宽和低延迟的特性。微软已采用这种技术加速其Azure云服务。

国内科技巨头腾讯也是云服务提供商,目前正在开发FPGA解决方案支撑云计算,已经为其云服务云虚拟机开发了中国首个“FPGA云计算”服务。同基于CPU的云服务器相比,FPGA集成CVM能为HPC应用程序和深度学习开发提供更好的计算能力。使用了云端访问的FPGA便不再需要购买硬件,降低了AI应用程序的开发成本。此外,腾讯也正在开发商业用途的第三方AI应用程序。

3、边缘计算层

随着智能手机、传感器、可穿戴设备以及智能家电等设备走向物联网化,会产生海量数据,而现有云计算带宽和计算资源还无法高效处理庞大的数据。所以,在网络边缘端处理源数据,筛选出有效信息并传输到云端将成为一种新的计算模型,这种方式能有效降低云中心的网络带宽和计算负载。

此外,近几年来芯片体积逐渐缩小到几乎可以嵌入任何设备,边缘计算也就变得更加可行。像无人机、机器人、VR和AR沉浸式体验设备,自动驾驶汽车等未来都需要特定的AI硬件支持,为了满足不同设备的需求,许多初创公司正在推出自家ASIC芯片,而且大芯片制造商也在处理器中增加了AI功能。

比如国内手机和处理器生产商华为,就在尝试集成AI芯片来提升其系统芯片性能。华为采用了寒武纪的NPU,并推出了其旗舰智能手机Mate 10的SoC Kirin 970,这种AI芯片集成让手机相机的图像处理功能更强大。

AI的发展必然会带动芯片市场的变化。算法开发框架随时都在更新变化,即使是像英伟达和谷歌这样目前引领着训练层市场的公司也随时可能会面临新的竞争。此外,越来越多的AI应用程序正在开发中,整个云计算市场不断增长,云服务提供商之间的竞争也将会加剧。当然边缘计算市场也是现在和将来大公司们和创业公司竞争激烈的区域。(编译:Sharon)

文章来源:

https://medium.com/syncedreview/tracking-the-transforming-ai-chip-market-bac117359459

图片声明:如果我们使用了您的图片,请作者与本站联系索取稿酬。如您不希望作品出现在本站,可联系我们要求撤下您的作品。

人工智能芯片:概念内涵及其重要性

在可预见的未来几年,人工智能将在国家和国际安全中发挥重要作用。因此,美国政府正在考虑如何控制人工智能相关信息和技术的传播。由于难以对通用人工智能软件、数据集和算法进行有效管控,现代智能系统所需的计算机硬件自然成为关注重点。领先的、专业的“人工智能芯片”对于经济、高效地大规模应用人工智能至关重要。对此,美国乔治敦大学安全与新兴技术中心(Center for Security and Emerging Technology,CSET) 发布报告《人工智能芯片:概念内涵及其重要性》,重点介绍何为人工智能芯片,为什么其对于大规模开发和部署人工智能不可或缺,并分析人工智能对国家竞争力的影响。

一、产业发展青睐人工智能芯片而非

通用芯片

(一)芯片创新的规律

包括通用的中央处理器(Central Processing Unit,CPU)、专用芯片(如人工智能芯片)在内的所有计算机芯片的发展都得益于较小的晶体管,相比于较大的晶体管,前者运行更快,功耗更少。不过,至少在21世纪头10年,尽管晶体管的尺寸收缩速度很快,并带来了巨大的速度和效率提升,专用芯片的设计价值仍然很低,通用CPU占据主导位置。

随着缩小晶体管的技术不断发展,芯片中的晶体管密度持续增加。20世纪60年代,摩尔定律指出,芯片中的晶体管数量大约每两年翻一番。遵从该定律,CPU速度得到了极大的提高。晶体管密度增加对速度的提升主要通过“频率缩放”(frequency scaling)来实现,即晶体管在开(1)和关(0)状态之间切换得更快,从而允许给定的执行单元在每秒进行更多计算。此外,晶体管尺寸的减小降低了每个晶体管的功耗,使芯片的效率也获得了很大的提高。

随着晶体管的缩小和密度的增加,新的芯片设计成为可能,新的芯片运行效率和速度得到进一步提升。CPU可以集成更多不同类型的执行单元,这些执行单元能够针对不同功能进行优化。同时,更多的片上存储器可以减少对片外存储器的需求,从而提升访问速度。此外,CPU可以为实现并行而非串行计算的架构提供更多空间。与此相关的是,如果晶体管密度的增加使得CPU更小,那么单个设备可以容纳多个CPU,实现同时运行不同的计算。

(二)摩尔定律的减慢与通用芯片的衰落

随着晶体管缩小到只有几个原子大小,其尺寸正迅速接近绝对下限,小尺寸下的各种物理问题也使得进一步收缩晶体管尺寸在技术上更具挑战性。这使得半导体行业的资本支出和人才成本以不可持续的速度增长,新芯片制程技术节点的引入速度比过去更慢。因此,摩尔定律正在放缓,也就是说,晶体管密度翻倍所需的时间越来越长。

在通用芯片占主导地位的时代,其成本可分散在销售的数百万个芯片中。而专用芯片虽然实现了针对特定任务的改进,但无法依靠足够的销量来弥补高昂的设计成本,其计算优势很快就被下一代CPU抹去了。如今,摩尔定律的放缓意味着CPU不再快速改进,通用芯片的规模经济效应遭到破坏。与此同时,一方面,半导体能力的关键改进已经从制造驱动转向设计和软件驱动;另一方面,人工智能应用需求不断增长,需要依托专用芯片实现高度可并行、可预测的计算。

这些因素驱动芯片向人工智能专用化方向发展,促使人工智能芯片夺取CPU的市场份额。

二、人工智能芯片的主要特征

人工智能芯片是一种常见的专用芯片,具有一些共同的特点。一是与CPU相比,人工智能芯片可以并行执行更多计算;二是能够采用低精度计算模式成功实现人工智能算法,但同时减少相同计算所需的晶体管数量;三是通过将整个算法存储在单个人工智能芯片中来加速内存访问;四是使用专门的编程语言来有效地翻译人工智能计算机代码,以便在人工智能芯片上执行。需要阐明的是,人工智能芯片是计算机芯片的特定类型,能够高效、高速实现人工智能计算,代价是在其他通用计算中只能以较低的效率和速度运行。

人工智能芯片包括三种类型:图形处理器(GPU)、现场可编程逻辑门阵列(FPGA)和专用集成电路(ASIC)。GPU最初用于图像处理。2012年,GPU开始越来越多地用于训练人工智能系统,这种应用从2017年起占据主导地位。GPU有时也用于推理。然而,尽管GPU可以提供比CPU更高程度的并行性,它仍然是为通用计算而设计的。相比于GPU,专用FPGA和ASIC效率更高,在推理方面的应用变得愈发突出,ASIC还越来越多地被用于训练。FPGA包括很多逻辑块(即包含一组晶体管的模块),逻辑块之间的互连可以在芯片制造后由程序员重新配置以适应特定算法,而ASIC则包括为特定算法定制的硬连线电路。前沿的ASIC通常能比FPGA提供更高的效率,而FPGA则比ASIC更具定制化能力,能够随着算法的发展促进设计优化。相比之下,ASIC则只能随着算法的迭代变得越来越过时。

机器学习是一种实现人工智能的重要方法,主要涉及到训练(Training)和推断(Inference)。简单来说,训练也就是搜索和求解模型最优参数的阶段。当模型参数已经求解出来,使用和部署模型,则称为推理。考虑到训练和推理中每项任务对芯片的要求不同,二者可能采用不同的人工智能芯片。首先,训练与推理需要不同形式的数据并行和模型并行,在一些相同的计算步骤基础上,训练还需要一些额外的计算步骤。其次,训练实际上总是受益于数据并行,但推理并非如此,例如有时可能只需要对单个数据块执行一次推理。最后,根据应用场景的不同,效率和速度对于训练和推理的相对重要性可能会有所不同。

人工智能芯片的商业化取决于其通用能力的程度。GPU早已被广泛商业化,FPGA的商业化程度较低。同时,ASIC设计成本高,专业化特征导致低销量,比较难以商业化。不过,人工智能芯片的预计市场规模增长可能会创造必要的规模经济效应,从而使应用更窄的ASIC盈利。

人工智能芯片依据性能的不同,可以分为不同的等级。在高性能领域,服务器级人工智能芯片通常用于高性能的数据中心,并且在封装后比其他人工智能芯片更大。中等性能的芯片是消费者常用的个人计算机人工智能芯片。在低性能领域,移动人工智能芯片通常用于推理,并集成到一个还包含CPU的芯片系统中。

三、为什么人工智能需要尖端的人工

智能芯片

人工智能芯片的效率和速度通常比CPU高10—1000倍。一个效率是CPU 1000倍的人工智能芯片提供的改进效果相当于26年摩尔定律驱动的CPU改进效果。

(一)从成本—效益视角分析使用尖端人工智能芯片是否有效

前沿人工智能系统需要的不仅是人工智能芯片,还是最先进的人工智能芯片。普通芯片体积更大、运行更慢、耗能更高,导致人工智能模型训练过程中,功耗成本将迅速膨胀到无法承受的水平。

通过对比尖端人工智能芯片(7纳米或5纳米)与普通芯片(90纳米或65纳米)的成本,可得出两大结论。在生产和运营成本方面,使用尖端人工智能芯片会比普通芯片节约更多的经济成本。因为普通芯片使用2年后耗费的电费成本将会是芯片本身成本的3—4倍,并且随着时间推移还将逐年增加。而尖端人工智能芯片耗费的电费成本刚刚超过芯片本身的成本。其次,据估计,生产和运行5纳米芯片的成本需要8.8年才能与7纳米的成本持平。因此,在8.8年以下,7纳米芯片更便宜,而在8.8年以上,使用5纳米芯片更便宜。因此,只有当用户预计使用5纳米节点芯片8.8年时,他们才有动力更换现有的7纳米节点芯片。

通常来说,企业会在运营大约三年后更换服务器级芯片,但是如果购买5纳米芯片,他们可能会期望更长的使用时间,所以市场需求的放缓也与摩尔定律正在放缓的规律相匹配。由此预测,3纳米芯片可能在很长一段时间内都不会推出。

(二)芯片成本和速度是计算密集型人工智能算法的瓶颈

企业在人工智能相关计算上花费的时间和金钱已成为该技术进步的瓶颈。鉴于尖端人工智能芯片比旧版芯片或尖端CPU更具成本效益和速度,人工智能企业或实验室需要此类芯片来继续推动智能技术进步。

首先,DeepMind开发了一系列领先的人工智能应用(如AlphaGo),有的训练成本甚至高达1亿美元。OpenAI报告称,其2017年总成本为2800万美元,其中有800万美元用于云计算。如果用旧版人工智能芯片或尖端CPU来运行计算,则计算成本会乘以30甚至更多,这将使此类人工智能训练或实验在经济上令人望而却步。计算成本增长如此之快,可能很快就会达到上限,因此需要最高效的人工智能芯片。

其次,领先的人工智能实验可能需要数天甚至一个月的训练时间,而部署的关键人工智能系统通常需要快速或实时的推理。使用旧版人工智能芯片或尖端CPU将极大地增加这些时间,使人工智能研发所需的迭代速度以及部署的关键人工智能系统的推理速度慢得令人无法接受。

以上分析的一个局限是,最近的一些人工智能突

相关问答

ai智能芯片是什么意思?

ai智能芯片意思是在于人工智能方面,在引入人工智能的深度学习能力后,可实现系统内部资源智能分配以及用户行为预测。进而实现从UI、应用启动、系统响应、图像...

ai芯片是什么?

在手机上寻求AI芯片的原因很简单。就像我们日常使用的电脑台式机一样,普通的CPU非常不利于机器学习;这方面需要大量的小型计算,但CPU只能用有限的核心进行计算...

人工智能芯片正确表述?

具备人工智能学习功能的处理单元具备人工智能学习功能的处理单元

什么是智能芯片?

智能芯片(IntelligentChip)是一种特殊的集成电路,它集成了计算机科学、电子工程、人工智能(AI)等多学科的知识,具有一定的智能处理能力。智能芯片的主要特...

人工智能ai芯片区别?

(1)性能与传统芯片,比如CPU、GPU有很大的区别。在执行AI算法时,更快、更节能。(2)工艺没有区别,大家都一样。至少目前来看,都一样。所谓的AI芯片,一般...人...

ai芯片算力是什么?

AI算力指的是计算机系统针对人工智能任务处理和计算的能力和效率。在进行人工智能方面的任务时,需要大量的计算资源和高效的计算能力来处理大量的数据和繁重的...

ai人工智能需要哪些芯片?

AI人工智能需要使用高性能的芯片来支持其计算需求。以下是一些常用的AI芯片:1.GPU(图形处理器):GPU是一种高度并行化的处理器,可以同时执行多个任务,适合...

AI芯片与服务器是什么?

是IA64架构IA64是惠普和Intel携手开发的新一代64位的计算机芯片。IA64处理器I-tanium(安腾)是Intel自推出32位微处理器以来,在高性能计算机领域的又一座里程...

AI代表人工智能,那AI芯片智能在哪里?和传统芯片有什么不一样的?

首先,谢邀回答。AI领域将会是接下来科技行业的下一个风口,最近非常的火,海量的数据处理、分析、挖掘和标签化,需要计算性能非常出众的计算核心,也就是计算...再...

手机芯片的“AI性能”有什么用?-ZOL问答

当然这是一个全面屏的时代,也是一个智能Al的时代。全面屏让手机更加漂亮,而Al就是让你的手机更加聪明,更加懂你,成为你工作生活上的贴心小助手。而AL是什么呢...

 客车行业  第5号台风桑达生成 
王经理: 180-0000-0000(微信同号)
10086@qq.com
北京海淀区西三旗街道国际大厦08A座
©2025  上海羊羽卓进出口贸易有限公司  版权所有.All Rights Reserved.  |  程序由Z-BlogPHP强力驱动
网站首页
电话咨询
微信号

QQ

在线咨询真诚为您提供专业解答服务

热线

188-0000-0000
专属服务热线

微信

二维码扫一扫微信交流
顶部