人工智能芯片势力版图及中美七大英杰简传

人工智能芯片势力版图及中美七大英杰简传

三分天下美、欧、中

2018年是全球经济衰退的一年。但对新兴的人工智能芯片领域来说,没有春冬之分,产业一律都是春天。

人工智能芯片领域首先是智力密集,其次是产业密集。

美国、欧洲和中国三分天下。

北美是研究人工智能芯片学者的首选之地。如果还要细分,美国东海岸(常青藤校区)周围是全球该领域的人才密集区,有761人进入搜寻范围。西海岸南部加州腹地为378人,北部地区有144人,西部合计522人。美国南部迈阿密地区附近还有183位学者入选。

美国以总数1466人,居全球第一。

欧洲部分以德国为领头羊,德国周边有503位人工智能芯片的学者,英国、法国、意大利三国合计有218人左右,南欧和北欧分别还有75人和32人。

欧洲拥有828位学者,居第二。

再看亚洲,其实拥有话语权只有两个国家:中国和日本。

中国拥有154人,日本拥有141人。

其他地区,如南美洲、非洲和大洋洲研究学者人数匮乏。

人才流失率比较

全球对人工智能芯片最具影响的前1000人学者进行路径分析,得出以下结论:

美国仍是全球人工智能芯片的科研高地,流失497人,引入479人,两项指标均大幅领先其他国家。

其次是英国,流失151,引入151人。

第三是中国,流失105人,引入114人。

余下德国、瑞士、澳大利亚等国人数流失和引入均差异不大。

中美七大代表性学者

美国:Jeff Dean(杰夫·迪恩)

Jeff Dean为美国工程院院士。著名的Google大脑(Google Brain)、Google机器学习开源框架TensorFlow、Google广告系统、Google搜寻系统等技术的重要创始人之一。

1996 年 Jeff Dean 在华盛顿大学获得电脑科学博士学位,三年后加入了Google。

好吧,事实上Google在1998 年才成立,姐夫同学便是公司早期员工之一。Jeff Dean 在Google公司的成长过程中扮演了重要角色,设计并实现了支撑Google大部分产品的分散式计算基础架构。

在Google的成长过程中,他一直是该公司技术流派的头面人物——设计和实现了支撑Google大部分产品的许多分散式计算基础设施。

主要成就:

建立Google的广告系统Adsense——作为Google搜寻广告,它是如今所有互联网广告的原型。

开发Google的检索、索引和搜寻系统,利用著名的Pagerank搜寻算法,一举成为最优秀的搜索引擎公司。

2011年初,Jeff Dean与吴恩达主导建立了“Google大脑”(Google Brain)这一奠定了Google人工智能领先地位的重要部门。

领导开发了Google机器学习的标志性软件TensorFlow、支援执行的超大规模计算框架MapReduce等重要专案。2015年11月,TensorFlow正式开源释出,目前已经是深度学习领域占据绝对统治地位的框架。

Google CEO桑达尔·皮查伊(Sundar Pichai)曾说,Google将主要成为一家人工智能公司。作为系统和基础架构小组的资深前辈,Dean 和他的团队对于实现这个计划来说至关重要。Google实际上不是一个搜寻公司,它是一个机器学习公司。Google最重要的几个专案,如无人驾驶汽车、广告、Google地图,一直都从这类研究中获益。

实际上机器学习驱动着公司的一切。

不仅是Google地图,安卓的语音识别软件及Google+影象搜寻也受益于Google大脑。但按照专案背后主要的思想家之一Jeff Dean的说法,这仅仅是个开始。

美国:黄仁勋

黄仁勋为美籍华人,1993年创办Nvidia(全球最大显卡芯片厂商之一)。

黄仁勋于1984年在俄勒冈州大学取得电机工程学位,其后在斯坦福大学取得硕士学位。1993年,创立Nvidia(英伟达)。

主要成就:

1999年,英伟达推出了全球第一个图形处理器(GPU);此后,GPU成为计算机中独立于CPU(中央处理器)的另一个重要的计算单元。

2016年4月5日,Nvidia英伟达宣布推出新的GPU芯片TeslaP100,芯片内建了150亿个晶体管,可以用于深度学习,黄仁勋宣称TeslaP100是目前为止最大的处理器。

2017年5月11日,在GTC2017大会上,Nvidia释出了Tesla V100。Tesla V100采用台积电12nm工艺制程,增加了与深度学习高度相关的Tensor单元,在815平方毫米面积的硅片上集成了210亿个晶体管,5210个CUDA核心,其单精度浮点运算效能达到15 TFLOP/s,双精度浮点运算效能达到7.5 TFLOP/s。

早在1999年,英伟达发明了GPU,重新定义了现代计算机图形技术,彻底改变了平行计算。

深度学习对计算速度有非常苛刻的要求,而英伟达的GPU芯片可以让大量处理器并行运算,速度比CPU快十倍甚至几十倍,因而成为绝大部分人工智能研究者和开发者的首选。

自从Google Brain采用1.6万个GPU核训练深度神经网络(DNN)模型,并在语音和影象识别等领域获得巨大成功以来,英伟达已成为AI芯片市场中无可争议的领导者。

美国:Vivienne Sze

麻省理工学院电子工程和计算机科学系的副教授。

研究兴趣包括行动式多媒体应用的节能算法和架构。

主要成就:

MIT Eyeriss节能加速器的主要研发人员之一。

Eyeriss可重新配置以支援最先进的深层卷积神经网络(CNN)。它专注于最小化加速器和主储存器之间以及加速器的计算结构内的资料传送,与当前的移动GPU相比,能实现10倍的能效。

为什么要研发此类芯片?

能够让移动装置执行自然语言处理和面部识别等任务,而无需连线至互联网。显然,这是让操作系统的机器学习变得更加便携的最新尝试。

换言之,智能手机、可穿戴装置、机器人、自动驾驶汽车、以及物联网装置,都能够在本地处理复杂的深度学习任务,这点在此前一直非常难以做到。

深度学习依赖于大规模的计算机处理效能,而“GPU加速”就是比较常见的一种方式。尽管能够胜任,但它也有一个最大的缺点——费电。

妥协方案就是尽量削减原始资料采集装置的功耗,将它们传送到互联网上强力的GPU服务器那里进行深度学习处理,然后将结果传送回来。依然有新的问题产生,延时。

Vivienne Sze研究的领域正在解决上述两个不可协调的矛盾。

美国:谢源

加州大学圣芭芭拉分校教授。发表了近300篇研究论文,获得多个国际会议的最佳论文奖,以及NSF CAREER award,中国国家自然科学基金会海外及港澳学者合作研究基金等。2014年获得IEEE Fellow的荣誉。

谢源于2002年获得普林斯顿大学电机工程系博士学位。

2003年加入宾夕法尼亚州立大学计算机系,2008年获得终身教职,2012年提升正教授。

2012年到2013年期间加入AMD,负责组建和领导AMD北京研发中心的研究部门。

2014年加入加州大学圣芭芭拉分校电机与计算机工程系(ECE)担任正教授。

主要成就:

谢源的主要研究领域包括VLSI设计,电子设计自动化,计算机架构和嵌入式系统设计。目前的研究专案包括新型内存架构,互连架构和异构系统架构。

最近的研究专案侧重于技术驱动和应用驱动的设计/架构创新。技术驱动的研究专案包括新兴储存器技术和3D积体电路的EDA/架构,硬件安全性和CPU/GPU/FPGA的异构计算。应用驱动的研究专案包括人工智能(AI)的新型架构,如深度学习神经网络的计算机架构,neuromorphic计算和bio-inspired计算,新应用的硬件加速,如生物资讯学应用,图形分析和机器人应用。

人类的大脑计算和储存不是分开的,不需要资料搬移,所以未来的计算机体系结构可能要改变传统的把计算和储存分开的冯·诺依曼架构。

谢源的研究团队正在研究计算储存一体化,希望在未来五年能够从底层到高层打通。

“我们把AI的ABC(算法+大资料+计算),又加上D(Domain knowledge)跟E(Ecosystem),探究计算储存一体化,希望能够使下一代AI芯片能够有更进一步的发展。”

中国:陈天石

中国科学院计算技术研究所研究员。研究方向为计算机体系结构和计算智慧。寒武纪科技创始人兼CEO。

陈天石于2010年在中国科学技术大学计算机学院获得工学博士学位。2016年至今,中国科学院计算技术研究所研究员,中科寒武纪科技CEO,研发出我国首款人工智能芯片寒武纪。

主要成就:

陈天石在IEEE/ACM Transactions、Theoretical Computer Science、ISCA、HPCA、IJCAI、AAAI、SPAA、DATE等重要期刊和会议上发表论文40余篇。

曾先后获得获全国百篇优秀博士论文提名奖、中国计算机学会优秀博士论文奖、中国科学院优秀博士论文奖、中国科学院院长奖、教育部高等学校科学研究优秀成果奖、国家自然科学基金委员会“优青”、Intel青年学者奖等荣誉。

2016年3月,陈天石、陈云霁联合创立了寒武纪科技公司,该公司是全球第一个成功流片并拥有成熟产品的智慧芯片公司,拥有终端和服务器两条产品线。

寒武纪AI芯片可以在计算机中模拟神经元和突触的计算,对资讯进行智慧处理。通过设计专门储存结构和指令集,每秒可以处理160亿个神经元和超过2万亿个突触,功耗却只有原来的1/10。

拥有强大算力的AlphaGo在打败李世石的时候需要呼叫几千块GPU的计算资源,如果采用专门的人工智能芯片,未来甚至有希望把整个AlphaGo都装进手机。

陈云霁2015年曾入选《麻省理工科技评论》35岁以下的全球最佳35名创新人士,在接受采访时他曾说:“五年或更久以后,每一部手机都可以像Google大脑一样先进。”

江西南昌籍的陈家兄弟都是公认的神童。哥哥陈云霁好研究,弟弟陈天石外向好动。

哥哥还留在科研所,为芯片而埋头写程式码做计算,而弟弟就成立了公司,将这种芯片推出市场,在市场落地。

中国:施路平

清华大学教授,国家光储存工程研究中心主任。

2012年入选千人计划(A类),2013年3月入职清华,SPIE Fellow。

施路平于1992年在德国科隆大学获得科学博士学位。1996年8月-2013年3月,任新加坡科学院资料储存研究院资深科学家,光学材料和系统实验室主任,非易失性储存器实验室主任,新加坡科学院人工认知储存器实验室主任。

主要成就:

参与建立并领导了新加坡科学院的半导体非易失性储存器,光储存,人工认知储存器研究领域。研究领域包括资讯储存、整合光电子学、材料科学、人工认知储存器、自旋电子学、奈米科学与技术等,是人工认知储存器的主要开拓者之一。

已发表近200多篇学术论文(包括Science,Nature Photonics,Phys Rev Lett,Advance Mat, Laser&Photonics Review, Scientific Reports),拥有10多项专利或专利申请。

2004年获颁新加坡国家科技奖。

施路平对半导体材料学的贡献,以及使用铋化物为类脑计算器件的发展提供了重要的思路,并有望借此在类脑计算硬件网络中实现不同时域的神经动力学过程。

中国:余凯

前百度研究院副院长,深度学习实验室主任。

地平线机器人技术创始人兼CEO。

余凯在慕尼黑大学获得电脑科学博士学位,曾在微软、西门子和NEC工作。

2015年5月22日,余凯从百度离职。同年7月,创办地平线机器人,致力于“define the brain of things”,打造万物智慧时代的“AI Inside”,给人们日常生活的无数装置和产品装上“大脑”。

主要成就:

2009年,在PASCAL VOC视觉识别竞赛中获得第一名。

2008年和2009年,美国国家技术与标准局组织的TRECVID影象事件检测评比中两次获得多项第一名。

2010年,带领团队在首届ImageNet大规模视觉识别竞赛中获得第一名(Geoffrey Hinton团队于2012年获得第一名)。

余凯在深度学习、特征学习、贝叶斯学习、高斯过程、推荐系统、影象识别、影象检索等领域多有建树,在著名学术会议和杂志上发表了几十篇高质量论文,被同行引用达7000次以上。

曾获得1999中国讯号处理学会年会优秀论文奖,第9届PKDD国际会议最佳论文奖银奖,和第30届机器学习国际会议(ICML)的最佳论文奖银奖。

2013年到2014年,余凯所带领的语音技术团队、深度学习技术团队和影象技术团队,相继3次获得业界著名的百万美金“百度最高奖”,创造了百度公司内部各个技术及业务团队的记录。

标签: 科技行业资讯

猜你喜欢