依图造芯,“求索”算法即芯片
【新智元导读】 今日,依图重磅推出了拥有世界级算法优势的云端AI芯片——求索(questcore™)。这是依图推出的第一款云端深度学习推理定制化 SoC芯片,专为计算机视觉领域分析任务打造。性能秒杀英伟达!算法即芯片的时代来了。
在今天的年度发布会上,拥有世界级算法优势的依图科技重磅推出云端AI芯片——求索(questcore™)!为AI芯片开辟了一条新道路。
选择在擅长的领域继续发挥优势。“求索”是依图推出的第一款云端深度学习推理定制化 SoC芯片,为计算机视觉领域分析任务打造 ,针对视觉领域的不同运算进行加速,适用于人脸识别、车辆检测等多个应用场景。
加入“造芯”阵营后,依图科技瞄准其擅长的计算机视觉领域,再度打出重拳,这一拳打破了算法公司与芯片硬件公司的“次元壁”。
“求索”已来:云端AI芯片市场再添新玩家
在发布会现场,依图联合创始人兼CEO 朱珑谈到了AI芯片为何难做,用了三个“没有”作为排比句:
没有典型场景应用就没有意义;没有超越NVIDIA的芯片就没有意义;没有世界级的算法就没有意义。如果一款AI芯片没有定制方向、没有超过业内最大咖的玩家、没有顶级算法作为支撑,那么这款芯片就不能称为是成功的,这也是依图所面临的挑战。
依图科技的确拥有世界级的算法优势,但它并非芯片创业公司,在投入大、门槛高的芯片行业,一开始就选择了高端玩家颇多的领域进军 ——自研云端 AI SoC,颇有要挑硬骨头下手的意思。
先来看下规格:
类型:系统级芯片(SoC);架构:ARM+ManyCore™;制程:16nm工作记忆内存:LPDDR4X;解码:64路全高清实时。发布会现场,依图科技首席创意官吕昊为大家进行了芯片演示——他手持一台体积与15 英寸苹果 MacBook Pro笔记本相当的依图原子服务器,成功带动200路摄像头同时完成实时智能视频分析任务。
刚开始大屏幕只显示了服务器处理的27个摄像头画面——一个NVIDIA P4显卡大概只能处理27个摄像头。紧接着,大屏幕画面突然显示了原子服务器同时带动200个摄像头的画面:
一场直观的新品考验。
依图原子服务器基于questcore™ 打造,一台服务器提供的算力与 8 张英伟达P4卡服务器相当,而体积仅为后者的一半,功耗不到20%。 在进行视频解析时,1台依图原子服务器(搭载4核 questcore™芯片,除此之外无需其他配置),与8卡英伟达T4服务器(含双核英特尔 x86 CPU)对比,单路视频解析功耗仅为后者的 20%,与8卡英伟达P4 服务器(同样含双核英特尔 x86 CPU)相比,功耗约为后者的10%。
questcore™可独立运行,自研架构,实现高性价比
这款芯片作为服务器芯片可以独立运行,不依赖 Intel x86 CPU,并且采用依图自研的ManyCore™架构,具有灵活可拓展的特质,适配各类深度学习算法。
从这些特性来看,这款云端芯片更看重“实用”二字——如何满足更多的需求、如何将本有的算法优势在芯片上发挥更大的作用、如何适应现有的生态。
简单来讲,它致力于解决一个实在的问题——如何实现高性价比 。
“利用算法优势”成为全场发布会的一大关键词。依图认为,好的算法才能更高效地利用芯片架构,才能指导芯片架构设计,把算力更高效地转化为智能。这款芯片基于领域专用架构(Domain Specific Architecture,DSA)理念,专为计算机视觉应用而生。
questcore™是款“自立自强”的芯片:它作为服务器芯片可以独立运行,不依赖 Intel x86 CPU 。这也是依图芯片与NVIDIA GPU、Google TPU和其他AI芯片公司研发的AI加速器产品一个很大的不同。
另外,这款芯片采用依图自研的ManyCore™架构,据介绍,同等功耗下,这款芯片能提供市面现有同类主流产品 2~5 倍的视觉分析性能。
如果一款芯片想要实用性强,就必须拥有强大的可拓展性,以便应用于更多的场景。ManyCore™架构能够适配各类深度学习算法,支持TensorFlow、PyTorch、Caffe等各类深度学习框架,便于无缝接入现有生态。在此架构下,questcore™构建的产品和解决方案可以兼顾云端和边缘计算的需求 。
据依图科技向新智元介绍,这款芯片能实现性能和功耗比呈量级提升的根本原因之一是:ManyCore™架构针对INT 8数据(8 位整数数据类型)进行加速。
事实上,对于云端 AI 推理或者说视觉推理计算而言,并不需要高精度的计算,低精度的INT8 数据类型已经足够满足需求。采用16nm制程也是考虑现在业界对视觉分析应用的需求。
在投入极高的芯片行业,如何实现高性价比是众多玩家要实际面对的终极问题,算力的提升正是为了解决AI场景中的经济学难题——用更少的成本解决更多的问题 。
投资AI 芯片初创团队ThinkForce,依图迈向算法芯片一体化
在发布会上,依图表示未来立足“算法+芯片+数据智能 ”的极智战略,深入行业,降低人工智能应用落地和推广成本,赋能行业。
据介绍,questcore™芯片的设计和研发正是依图算法团队和ThinkForce团队紧密合作的成果。
事实上,依图科技在AI芯片领域内早有布局。2017年底,依图正式对外宣布战略投资AI芯片初创团队ThinkForce。ThinkForce是中国少有的拥有芯片研发全链路能力的团队,核心成员来自 IBM、AMD、Intel、ZTE 等芯片业界龙头企业,全都拥有十年以上专业芯片研发设计经历,经手过40余款不同芯片的量产。
有了如此高配的芯片研究团队,打破算法与芯片的“次元壁”不再是难事,软硬件一体化的产品也因此诞生。
事实上,次元壁本就不应该存在。市场上并不存在单独能够使用的软件或硬件,整个行业、整个生态一定是紧密结合在一起的。
这款芯片将于与依图智能软件结合在一起,构成软硬件一体化的产品或解决方案对外销售,未来将应用于交通运输、公共安全、智慧医疗和智慧零售等行业。TO B服务崛起之下,软硬件一体化正成为一家AI企业的商业优势,可以为客户提供针对特定场景优化的性价比最高的解决方案。
AI芯片市场逐渐拥挤:“造芯”路上,定制化是未来方向
与依图科技相似的是,Google、微软、阿里等科技巨头也在自研芯片:同样也是通过利用自身特有优势,从而为客户提供更好的软硬件一体化解决方案。越来越多企业加入了轰轰烈烈的“造芯”大军。
AI芯片是个全新战场。
押宝AI芯片可以说是大势所趋,据研究报告显示,目前AI芯片行业生命周期正处于幼稚期,市场增长快,2022年将从2018年的42.7亿美元,成长至343亿美元。
与其他战场相比,这个新战场充满了不确定性,以及更多的机会——一个没有先例可循的智能时代。中国AI创企与世界科技巨头站在同一起跑线上 ,完全有可能成为新巨头,同时加速数据中心服务器芯片自主可控进程。
美国杜克大学电子计算机工程系教授陈怡然、美国纽约州立大学教授陈逸中曾在文章《中国AI芯片有可能弯道超车》提到:人工智能应用场景千变万化,其中应用的算法之间的差异更是巨大,可以预期未来各项应用将有不同的定制化芯片,出现人工智能芯片百家争鸣的盛况。AI芯片的另一大特点在于它所面对的是一个全新的、还未被大公司充分定义的新的业务场景。即使是NVIDIA,也只是在云计算这一领域有一定的垄断地位。
定制化芯片必然是未来方向。
世界级的创新需要世界级的命题,如今AI普及也成为世界级命题。依图联合创始人兼CEO 朱珑认为AI普及的关键是智能密度,而这里“智能密度”指单位面积硅芯片提供的算力转化的智能。
然而,在半导体的摩尔定律已经临近终结,智能密度继续翻倍不能再只寄希望于摩尔定律。虽然半导体的摩尔定律逼近终结,但算法性能却仍在万倍增长,过去 4 年依图的人脸识别算法精度提升了 10 万倍。
同时,通用芯片已无法解决所有需求,定制化芯片与依图questcore™一样,Google TPU也是一种DSA,针对深度神经网络(DNN)进行加速,Google TPU充分证明了DSA的优势。而对于DSA芯片而言,领域知识是最重要的,需要对机器视觉技术和行业有着深刻理解,这是需要人工智能公司在研发和商用落地中不断积累的。
了解自身优势、了解市场真正需求,提供定制化芯片成为了依图“高性价比”的解决方案,这也为那些想要加入芯片市场的玩家们提供了一个可高度参考的路线。
正如陈怡然教授和陈逸中教授所说的那样,一个成功的芯片项目所带来的不仅仅是销售芯片本身的利润 ,还有伴随芯片设计、制造以及销售整套流程中产生的支撑产业与生态系统,从而带动软硬件发展、行业标准制定、知识产权销售等产业发展。
算法即芯片,这条新路还会带给AI公司更多的可能性。
依图造芯之后的第三个月:摩尔定律将死,“算法即芯片”已来
8 月 15 日,Cadence 一年一度的全球巡回用户大会 CDNLive China 落地上海,本场大会吸引了包括 IC 设计工程师、系统开发者、生态系统合作伙伴、Cadence 客户在内的数千人参会。作为在全球范围内有巨大影响力的半导体行业盛会,CDNLive 被 IC 设计行业看做是重要的行业“风向标”之一。今年 5 月刚刚发布全球首款云端视觉AI芯片 Questcore™(中文名“求索”)的依图科技,受邀参加了本次大会,其 CEO 朱珑还在大会上发表了主题演讲,分享了依图的“造芯”理念。
图|依图科技 CEO 朱珑在 CDNLive China 上发表演讲(来源:CDNLive China)
在去年的大会上,华为海思和寒武纪的同台演讲就提到了人工智能已经从 EDA 软件、芯片设计等源头领域对半导体产业产生深刻的影响和变革。今年,以算法起家的依图将触手伸向了芯片领域。总的来看,“算法定义芯片”已经成为行业大趋势。
“算法定义芯片”成为必经之路
图灵奖得主、计算机体系结构宗师 David Patterson 与 John Hennessy 认为,在开源系统的帮助下,轻量级芯片将拥有更多的商业化机会,下一个十年这些芯片在成本、能源、安全以及性能方面将实现全面质变。
在人工智能大势推动下,芯片市场的蛋糕越来越大。公开数据显示,2018 年全球 AI 芯片市场规模超过 20 亿美元,预计到 2020 年将超过 100 亿美元,会占到全球人工智能市场规模的 10% 以上。
图 | AI 芯片市场(来源:Allied Market Research)
目前国内的 AI 芯片厂商有三类:芯片主要用于云平台的 BAT 科技巨头、传统的芯片设计公司、算法起家的初创公司。对于非巨头公司而言,垂直深耕可能是它们能在行业巨头夹缝中取得差异化竞争优势的唯一路径。
在本次大会上,朱珑发表了题为“AI 新时代”的演讲,他认为,“随着摩尔定律濒临终结,依靠传统方式来提升芯片效能的方法已经收效甚微,而高成本、高能耗、低利用率的特点满足不了当下复杂的人工智能使用场景需求,IC 行业也正在积极调整步伐,以期跟上人工智能的行业发展节奏。”在 AI 芯片设计中“算法定义芯片”的情况愈发凸显,软硬件一体化的解决方案才可以最大程度地发挥“算法+芯片”的优势。
今年 5 月,依图在上海发布了一款“发布即商用”的云端 AI 芯片“求索”(questcore™),这是依图实现人工智能应用大规模普及落地的一个重要基础,也让依图成为 CV 四小龙中第一个尝试自研芯片的公司。
不仅如此,依图还提出“算法即芯片”,将算法与芯片设计强耦合推向了极致。
图丨含有 4 颗 QuestCore™ 芯片的板卡(来源:DeepTech)
这枚全球首款深度学习云端定制 SoC 芯片主要针对计算机视觉应用,能兼顾云端和边缘的智能视觉分析需求。
依图介绍,该芯片的视觉推理性能是市面现有主流同类产品的 2 ~ 5 倍,安防摄像头单路功耗仅为英伟达 GPU P4 的 30%。
依图还基于 questcore™ 打造了软硬件一体化的城市级智能视频解决方案,让数据中心“1 万路成标配,50 万路成现实”。
普及 AI 需要基础设施革命
机器智能分为可记录、可识别、可关联、可预测、可规划五个阶段,如何才能实现并推动机器智能每个阶段的提升并最终跨入智能时代?
信息时代过去 30 年,CPU 运算能力提升了 100 万倍,存储能力提升了 100 万倍,通讯能力即数据的传输速度也提升了 100 万倍。智能时代过去 5 年,即使 AI 算法性能已经提升百万倍,但目前的人工智能仍然停留在低阶阶段。对此,朱珑表示,文明的变迁史就是一场基础设施的革命史,而在人工智能时代,基础设施的跃迁关键在于“智能密度”。
“智能密度”是依图创始人朱珑首次提出的理念,他认为基础设施提升的关键就在于提升一个区域或城市的“智能密度”。
图 | 依图创始人朱珑(来源:依图科技)
从微观来看,“智能密度”指的是单位芯片面积拥有的智能算力。
宏观来看,“智能密度”反映从单体的机器智能到群体智能的覆盖程度。通俗来说,从 1 个摄像头扩展到 10000 个摄像头,这些摄像头成了互联互通的一个新的、大的智能体,这样一来网络中的一个摄像头在某个区域安防中所起到的作用就远远超出了单个摄像头简单的“记录”作用,基于大量的数据和算法,摄像头将从记录发展为代替人进行判断和预测,实现“1+1>2”的效果。
算力的急剧提升需要具有高经济性、高性价比的基础设施,高级的算法可以用更少的机器算力实现更高的智能,随着数据、算法、存储、算力和传输等基础设施的不断提升,AI 会在未来几年有革命性的进展,实现智能水平的跃迁,最终推动智能文明更快到来。
据悉,在今年 8 月初的“中国人工智能峰会”上,依图与厦门市签订了合作协议,双方将共同建设完善“一脸通”平台及城市级大入口,依托城市智能视觉中枢开展公务、民生等方面的智能应用落地。能看出,依图在经过“视觉-语音-芯片”三连跳之后,已成为一家视听兼备、软硬兼备的全能型 AI 公司,这也是其他 AI 企业可探索的一条发展路径。
“没有典型场景应用没有意义、没有超越英伟达的芯片没有意义、没有世界级的算法没有意义,”朱珑认为,“算法即芯片这句话非常本质,只有能找对问题,找对场景,用对算法,并为此定制芯片,才有可能做到极致性价比”。
在今天举办的 CDNLive China 上,这一理念也得到了业内专家的再度肯定。清华大学微电子所所长魏少军教授指出,架构创新是 AI 芯片面临的的一个不可回避的课题。在他看来,英特尔 CPU、英伟达 GPU、Xillinx FPGA 等都处于 AI 芯片 0.5 阶段,谷歌 TPU 等处于 AI 芯片 1.0 阶段。魏少军教授认为,“软件定义芯片”将是 AI 芯片的未来。
相关问答
芯片上的算法指的是什么?
芯片上的算法指的是在集成电路芯片(IC芯片)中实现的计算或数据处理算法。这些算法通常通过硬件电路的设计和电子元件的布局来实现,以实现特定的功能或任务。...
有2k块芯片,已知好芯片比坏芯片多.请设计算法从其中找出一...
[最佳回答]感觉答案没问题呀LZ哪里不清楚?解释下答案第一步所做之后为什么好芯片依旧比坏芯片多吧:假设有m个好芯片n个坏芯片(m>n)两两比较只有三种情况...
芯片算法工程师是青春饭吗?
算法工程师不算是吃青春饭的,算法工程师是一个非常紧缺的专业工程师,要求对计算机、电子、数学等相关专业都要精通,年纪越大应该对这些领域掌握的更加的熟练。...
AI芯片怎么植入算法?
AI芯片通常是通过FPGA(现场可编程门阵列)或ASIC(专用集成电路)等硬件平台来实现的。这些硬件平台可以通过编程来实现各种算法,包括深度学习、计算机视觉、自...
怎样从算法逻辑上解决芯片高能耗的问题?
不要问这问题,这就相当于我想造宇宙飞船如何解决飞船与空气摩擦生热的问题一样。首先连空气动力都没学好,上天都是个难事,就想造宇宙飞船。怎样从算法逻辑解...
手机芯片ai算法是什么意思?
手机芯片AI算法,是指在手机芯片中内置的一种人工智能算法,其中AI指的是人工智能,也称为人工智能芯片。手机芯片AI算法是一种基于深度学习的算法,可以在手机...
有哪些好方法学习芯片的无线通信算法?
集中国内软件设计工程专家组建团队。拿出毛主席集中力量干大事,拿出两弹一星精神。不要做买办。不要作汉奸。汉奸已经充斥我们各行各业。农业,金融,科技,自力...
amd芯片支持ai算法么?
是的,AMD芯片支持算法。AMD推出了一系列支持AI计算的处理器,如Ryzen和EPYC系列。这些芯片具有高性能的多核架构和先进的指令集,能够处理复杂的AI任务。此外,...
当前人工智能专业学生应该选择什么方向比较好?AI芯片或是CV/NLP/ML等AI算法?
谢谢邀请!ML一般指可以从经验中学习的系统DL是可以从大型数据集的经验中学习的系统ANN一般是帮助计算机学习的人类神经网络模型NLP是语言处理系统ASR是使...
英伟达ai算法芯片研发时间?
英伟达自2014年开始研发深度学习算法芯片,2015年推出了第一代TeslaP100GPU。之后,该公司不断升级其算法芯片,迭代出几代产品,如TeslaV100、A100等。与此同...