AI芯片落地难?让我们看看怎么难了

1748
0

宋宋 数据领袖Lv6

发表于2019-12-25 16:40

楼主
本帖最后由 宋宋 于 2019-12-25 16:44 编辑

搭着AI第三次浪潮的“顺风车”,AI芯片进入产业界的视线。
其实不然,AI的第三次“复苏”是由AI芯片领头的。2016年,业界熟知的谷歌AlphaGo大战李胜石,背后的TPU(Tensor Processing Units)机器学习芯片功不可没。作为承载机器学习负载的专有芯片,TPU区别于传统意义上的CPU、GPU,比CPU、GPU快几十倍。
2016年,谷歌I/O大会首次发布TPU之后,TPU已经历经多次迭代、升级。2017年,TPU 2.0推出,2018年,TPU 3.0发布,紧接着Cloud TPU、Edge TPU云、边缘开放、发布。

另一边,英伟达以GPU为主线的架构演进也在不断更新,2015年,基于Maxwell架构的GeForce GTX TITAN X发布,作为首款训练深度神经网络的处理器,GeForce GTX TITAN X面向云端,数据处理能力是传统16核CPU的13倍之多。
2016年,基于新一代Pascal架构,英伟达又推出了Tesla P40、Tesla P4、Tesla P100,面向深度学习、神经网络;2017年,基于Volta架构的Tesla V100为高性能计算HPC和AI融合提供可行性路径;2018年,Turing架构推出,新增AI训练和推理Tensor Core,深度学习抗锯齿算法DLAA......

AI正在改变芯片产业。
根据冯·诺依曼架构,运算器与存储器相互分开,指令、数据放置于存储器中,而冯·诺依曼架构瓶颈在于,存储量急剧增加后,CPU与存储之间的数据传输成为阻碍。换句话说,能量大部分耗损于数据在各个“板块”的传输。
所以,AI芯片大致有两个方向,一个基于冯·诺依曼架构,计算、内存是分离的;另外一个,彻底摆脱冯·诺依曼架构,模仿人类神经元的类脑芯片,运算、内存、通信是混合在一起。譬如,IBM的TrueNorth芯片。
类脑芯片刚刚起步,目前,市场上的AI芯片集中于前者。

大而不同
来自美国研究公司ReportLinker数据预测显示,未来5年,全球AI芯片将会进入告诉发展的阶段,2023年,市场规模预计将会达到108亿美元,复合年均增长率达53.6%。涉及的厂商包括谷歌、英特尔、英伟达、高通、微软、AMD、Graphcore、Adapteva等等。
乍一看,市场空间潜力巨大,且无论是巨头厂商,还是初创小公司均属于AI芯片的阵营。实际上,从技术的角度看,这些AI芯片无论是功能分类、部署位置均有所差异。

举个例子,8月23日,华为发布的Ascend 昇腾 910 AI处理器,号称“全球算力最强,速度最快”,相当于50个最新最强的CPU。已实现商用,可广泛应用于无人机、摄像机、机器人等终端。

一个月后,9月25日,阿里2019云栖大会上,阿里巴巴发布了第一颗AI芯片含光800。一颗含光800的算力大致相当于10颗GPU,是全球最高性能的AI推理芯片。同样,含光800已经在阿里巴巴内部核心业务中使用。

Ascend 昇腾 910与含光800的性能让人“迷惑”。其实,两者代表了AI芯片承担不同任务的两个方向:训练、推理。训练需要海量的计算,推理计算量相对较少,但涉及巨大的矩阵运算。

在部署位置上,AI芯片又分为云端、边缘,以及手机、汽车、摄像头、无人机等终端两类。赛迪数据显示,2018年,云端训练AI芯片占比最大,达49.5%;其次,为终端推理AI芯片,占比29.8%;第三是云端推理芯片,占比20.7%。

同时,AI芯片分为CPU、GPU、FPGA、ASIC等不同类型,一般意义上的AI芯片指的是ASIC专用芯片。最早,人们尝试将AI算法应用于传统CPU、GPU,效果不甚理想,特别是,CPU运算是串行的,运算能力不佳。相比较之下,GPU拥有更多的逻辑运算单元,架构更符合AI算法并行计算的特点。
这里不得不提到一家厂商——文章开篇的英伟达。

2012年,ILSVRC(ImageNet Large Scale Visual Recognition Challenge)大赛上,Geoffrey Hinton和学生Alex Krizhevsky用两台NVIDIA GTX580显卡,将自己设计的神经网络AlexNet准确率提高了10%以上,获得第一名。

从此,成立19年的英伟达,开始步入AI深度学习的黄金发展期,从硬件、软件、到生态,英伟达产品都围绕AI训练与学习提高性能。2015 GTC大会上,英伟达教主黄仁勋甚至称,英伟达是AI公司,而不是硬件公司。

但GPU+CUDA(通用并行计算平台)并不是完美的,价格昂贵、高能耗、算力增长不不能满足企业急剧增长的算力需求等,这些成为GPU+AI的掣肘。
另一方面,包括互联网厂商、初创公司在内的企业,相继推出了ASIC、FPGA的AI芯片。企图在后摩尔定律时代,弯道超车。无论是英伟达,还是传统CPU、GPU芯片厂商都进入了AI红利的后期阶段。

来自网络公开数据显示,ASIC无论在市场规模,还是年复合增长率上均比FPGA高。ASIC厂商有谷歌、阿里巴巴、华为等;FPGA厂商有Atmel、Achronix Semiconductor、英特尔、赛灵思Xilinx、深鉴科技等。

如此多的厂商涌入AI芯片的赛道目的各不相同。

落地不是重点
以英特尔为例,近几年,英特尔一直在为未来“买单”,不错过任何战略机遇,从AI周边、自动驾驶、地图到芯片,大大小小的知名、非知名创业公司收入囊中。PC时代,Wintel建立起来的壁垒正在消弭,在移动互联网时代落下的课,需要在AI+云+5G时代补课。

譬如,收购FPGA领域的Altera、Omnitek两家公司;自动驾驶领域的Mobileye;计算机视觉领域的Movidius、Itseez公司。不久前,英特尔收购以色列AI芯片公司Habana Labs传言“实锤”,Habana Labs聚焦于AI推理与训练的芯片。

今年8月,英特尔推出首款AI芯片Nervana NNP-I/T,Nervana NNP-I用于训练,Nervana NNP-T用于推理。英特尔已补齐CPU、GPU、FPGA、ASIC的AI芯片。所以,对于硬件巨头而言,当下弥补短板,找到业务新的可能增长点是“转型”的当务之急。

软件巨头切入市场,逻辑则有所不同,一方面,随着企业发展进入深水区,算力需求海量增加,市场不能满足需求;第二,供给方成本昂贵;第三,AI确实能帮助企业构建云计算平台、数字化转型等等过程中提高效率;第四,与自身业务生态战略相融合;第五,减弱硬件厂商在市场的话语权。

出于五个方面的驱动,在资金实力充足的情况下,谷歌、阿里巴巴、微软、Facebook、IBM等厂商也开始探索、布局AI芯片。从谷歌、阿里巴巴、华为等厂商推出的产品来看,主要面向云端、边缘端的算力需求,而国外的初创公司也大多集中于云边端,譬如,Habana Labs、Graphcore、Groq等。

但仔细观察会发现,除了为数不多的初创企业向巨头云端提供部署方案,包括巨头在内发布的云端、边缘段AI芯片,并没有实现大规模的商用,仅仅初步停留于自家需求。

换句话说,部署在云端的AI芯片厂商获得了资本市场的认可,却没有进一步的大范围落地、商用迹象。

有趣的是,与国外AI芯片市场不同的是,国内AI芯片初创企业回避了巨头所在的云端场景,最初集中在终端一侧。

2016年,寒武纪推出神经网络单元NPU处理器1A。2017年底,地平线发布第一代BPU架构,两款芯片,征程1.0用于智能驾驶;旭日1.0用于智能摄像头。2018年,云天励飞发布了深度学习神经网络DeepEye 1000流片。

2019年初,思必驰发布第一代AI语音芯片TAIHANG深聪,主要应用于智能家居、车载、可穿戴等终端场景中。两个月后,联发科联合旷视Helio P60首次内置人工智能处理器APU。

以上,均为国内初创企业在市场初期终端领域部署的一些情况。可以看出切入各不相同,有从硬件、有的从软件、平台,有的从算法切入市场。
当然,2018年、2019年发生了一些变化,包括寒武纪、依图科技等,均从终端芯片转向云端、边缘端芯片。这一转变契合市场、资本的趋势,但与国外创业企业处境类似,云端、边缘端的芯片多被谷歌、英伟达等巨头所垄断,生存空间逼仄。

国内阿里巴巴、华为、百度也对这一领域虎视眈眈,并有相关产品发布、内部使用。初创企业在资金实力、商用落地方面不占优势。在没有核心竞争力,技术成果不能加速商业化进程的情况下,终局无外乎,被收购,或者提高当前市场估值。

两者的根结,在于商业模式不能形成闭环。

落地又是关键
2018年7月,FPGA头部厂商赛灵思收购了中国初创企业深鉴科技。2019年8月,旷视在港交所递交IPO招股书,招股书显示,2019年上半年,旷视营收为9.49亿元、亏损52亿元。从2016年到2019年上半年,亏损逐年扩大。

深鉴科技、旷视科技映射了整个AI市场的窘境,快融资、技术高速发展期已经过去,“落地”成为摆在AI企业们面前的难题。“落地”究竟有多难?纬度是多方面的。

首先,AI芯片不能违背芯片的发展规律,芯片制造涉及工艺、制程、量产等门槛较高,初创企业没有深厚的积累,对市场判断、客户需求,性能指标可能存在试错的过程。

尚且不谈AI芯片中“内存墙”,性能质量问题,是否为”PPT芯片“、量产等问题能否解决依然需要打一个问号。驭势科技创始人吴甘沙曾在南都采访中也谈到当前AI芯片市场创业企业众多的原因,“一方面,AI芯片的门槛比通用芯片门槛低,另一方面,目前大多数都说可以做出来AI芯片的厂商,但能否用得好,能不能大批量卖出去还有待时间验证。”

第二,AI芯片能否大面积铺开,还要看场景的成熟度。以自动驾驶为例,自动驾驶涉及产业链上下游环节非常多,车企、高精地图、ADAS、激光雷达、摄像头、传感器、网络基础设施,车联网V2X等,特别是,基础设施层面,包括V2V(汽车与汽车)、V2I(汽车与基础设施)、V2R(汽车与路侧设备)、V2P(汽车与行人)等多个场景方案一直未定型。

第三,AI芯片厂商需要有核心的竞争能力,从架构创新到商业模式、切入角度的创新,需要“黑马”企业破局。

更重要的还在于生态。尽管,AI芯片发展历程在各方面与GPU、CPU等相比,时间较短,是一个“崭新”,相对公平的赛道。但仅仅有硬件、软件是不够的,“软件定义硬件”意味着硬件需求端发生变化,有了新的要求,软件将会反过来影响硬件的设计,软件与硬件需要相互协同。
所以,算法、软件对AI芯片的重要性也越来越高。

英伟达公布2020财年Q3财报后,CEO黄仁勋在接受外媒GamesBeat采访时,谈到芯片上软件堆栈的难度:“深度学习的挑战之一在于软件非常丰富,是否是正确的数据、模型、超参数,需要慢慢学习。训练方面,让人们信任看不见的复杂系统障碍很大,推理方面,模型种类太多。下一步发展到多模型、多领域将会更难。”

几天前,腾讯投资的初创企业燧原科技发布了面向云端数据中心的AI训练芯片邃思、加速卡“云燧T10”。

可见,在市场需求、销量“黑盒”化的情况下,这一赛道的加码依然在继续。

但AI芯片从技术到落地再到市场普及,没有那么容易,或许仍需要一段漫长的路程,至少相当一部分AI芯片企业,尤其是创业企业,将长时间停留在“落地”之前。

来源互联网

最近看过此主题的会员

qwz

韦韬然

liyi674254133

0个回答

只看楼主

登录后可回答问题,请登录注册

快速回复 返回顶部 返回列表

小时

全天响应

分钟

快速处理问题

工程师强势助力

明星产品
解决方案
联系合作

400咨询:400-0011-866

技术支持QQ:400-0011-866(工作日9:00-18:00)

产品建议邮箱yixin@esensoft.com

关注我们

扫TA学习更多干货

一对一专家交流

版权所有© 2006-2024 北京亿信华辰软件有限责任公司 京ICP备07017321号 京公网安备11010802016281号