此页面上的内容需要较新版本的 Adobe Flash Player。

获取 Adobe Flash Player

人工智能

人工智能推动硅复兴
作者:   来源:东方财富网   日期:2020-05-11

   半导体是数字时代的基本技术,硅谷因此而得名。过去半个多世纪以来,技术革命改变了人类社会的方方面面,而硅谷,正是每一场计算革命的中心。

   1971年,英特尔推出世界上第一个微处理器,从那以后,计算能力的提升便持续不断、让人叹为观止。根据摩尔定律,现在计算机芯片的功能比50年前要强大数百万倍。

   不过,尽管数十年来,处理能力飞速提升,计算机芯片的基本结构仍保持不变,直到最近才有了新的发展。硅的创新基本上围绕压缩晶体管的体积,使集成电路可以容纳更多的晶体管。几十年来,英特尔和超威半导体(AMD)等公司不断地提升CPU性能,发展迅速。这一过程就是克莱顿·克里斯坦森(Clayton Christensen)所说的“持续创新”。

   如今,这一情况正发生着惊人的变化。人工智能为半导体创新开启了全新的黄金时代。由于机器学习带来独特的需求和无限的机遇,几十年来,企业家们第一次重新思考芯片结构的基本原理。

   他们的目标是设计一种全新的芯片,专为人工智能打造,该芯片将成为下一代计算机的重要元件。目前,这一全新的设计是硬件行业最大的市场机遇。

   全新的计算模式

   在计算发展过程中,大多数情况下,主要的芯片结构就是中央处理器,简称CPU。如今,CPU无处不在——笔记本电脑、手机以及大部分数据中心都离不开它。

   1945年,传奇人物约翰·冯·诺伊曼(John von Neumann)提出了CPU的基本结构。值得注意的是,从那以后,CPU的设计基本没有变过——现在大多数计算机还是诺伊曼结构。

   CPU使用广泛正是因为它足够灵活——CPU是通用设备,它能够有效执行软件所需的所有计算。但即便如此,今天的人工智能技术需要的是非常具体、密集的计算能力。

   深度学习需要迭代执行数百万甚至上亿次的相对简单的乘法和加法步骤。它基于线性代数,本质是一个试错的过程——伴随着(深度学习)模型的持续优化,不断地进行参数调整、矩阵相乘、在神经网络中迭代累加数字。

   这种重复性的、计算量大的工作流程对硬件结构有几大重要要求:首先,并行计算很重要。它的意思是一个处理器可以同时进行多项计算,不需要分开。除此之外,由于深度学习涉及大量数据的连续转换,因此存储器应尽可能的靠近运算器,减少数据传输,极大的提升速度和效率。

   CPU的性能无法满足机器学习的特殊需求。CPU的计算有先后顺序,不是同时进行的。而且,CPU的存储器和运算器通常位于不同的位置,通过通信系统(总线)进行连接,传输带宽有限。这给数据传输造成了阻碍,也就是众所周知的“冯·诺伊曼瓶颈”。结果就是,在CPU训练神经网络的效率很低。

   鉴于机器学习的应用越来越普遍,传统芯片满足不了现代人工智能算法的问题亟待解决。最近,AI大神杨立昆表示:“如果你可以穿越时空到五至十年以后,你会发现那时候的电脑基本都在做深度学习之类的事。”

   截至目前,人工智能的繁荣靠的是GPU(图形处理器)。20世纪90年代,Nvidia为满足游戏软件的需求发明了GPU。它为持续地处理大量数据而生,旨在提升游戏细节图的分辨率,达到高帧率的效果。跟CPU不一样的是,GPU可以同时完成数千次计算。

   2010年代初,人工智能的研究人员发现Nvidia的游戏芯片很适合应用于机器学习算法。就这样,GPU有了全新的市场,而且市场规模很大,这可完全是运气好。Nvidia充分利用这一机会,把自己塑造成人工智能硬件设备的推动引擎。公司也因此大赚一笔,从2013到2018年,Nvidia的市值翻了20倍。

   然而,正如Gartner的分析师Mark Hung所说的,“大家都知道GPU并不是人工智能的最优选择”。人工智能使用GPU,但GPU却不是为人工智能而生。

   近几年,一大批企业家和技术人员开始构想新的计算机芯片,从源头开始进行优化,挖掘人工智能无限的潜力。用Alan Kay的话来讲,“真正认真对待软件的人,应该去创造属于自己的硬件”,这句话让人难以忘怀。

   过去24个月里,出现了5家人工智能芯片独角兽企业。还有几家新贵以令人瞠目的估值被抢购。作为寻求避免颠覆的传统CPU厂商,英特尔独自在这一领域进行了两笔重大收购: Nervana Systems(在2016年4月以4.08亿美元收购)和Habana Labs(在2019年12月以20亿美元收购)。随着这场竞争在未来几年的展开,数千亿美元的企业价值将会被争夺。

   下一个英特尔?

   一个巨大的市场机会和一个“蓝天”技术挑战的结合激发了寒武纪的创意爆炸——有时是惊人的——设计理想的人工智能芯片的方法。

   也许最引人注目的新一批人工智能芯片初创公司是Cerebras Systems。简单地说,Cerebras大胆的方法是构建有史以来最大的芯片。该公司最近估值17亿美元,已从基准资本(Benchmark)和红杉资本(Sequoia)等顶级投资者那里融资2亿美元。

   Cerebras芯片的规格令人难以置信。它比一般的微处理器大60倍。它是历史上第一个容纳超过一万亿晶体管(准确地说,是1.2万亿)的芯片。它的芯片上有18 GB的内存,这也是有史以来最多的。

   将所有的计算能力打包到一个单一的硅基板上提供了诱人的好处: 显著提高了数据移动的效率、存储与处理协同定位、大规模并行化。但工程上的挑战,轻描淡写地说,是可笑的。几十年来,制造晶片规模的芯片一直是半导体行业的圣杯,人们梦寐以求,但从未实现过。

   Cerebras公司首席执行官安德鲁·费尔德曼说: “所有的规则、工具和制造设备都是为正常大小的”巧克力曲奇“设计的,我们提供了整个”曲奇饼烤板“大小的东西。”“每一步都要创新。”

   Cerebras的人工智能芯片已经投入商业用途: 就在上周,阿贡国家实验室宣布它正在使用Cerebras的芯片来帮助对抗冠状病毒。

   另一家采用全新芯片设计方法的初创公司是总部位于海湾地区的Groq。与Cerebras不同的是,Groq的芯片专注于推理而不是模型训练。创始团队拥有世界级的领域专业知识: Groq的团队包括了谷歌的TPU项目的10名原始成员中的8名,这是迄今为止最成功的人工智能芯片项目之一。

   Groq颠覆了业界的传统观念,正在制造批量大小为1的芯片,这意味着它一次处理一个数据样本。这种架构可以实现几乎瞬时的推理(对于时间敏感的应用程序如自动驾驶汽车而言至关重要),同时根据公司的说法,不需要牺牲性能。Groq的芯片主要是软件定义的,这使得它具有独特的灵活性以及不会过时。

   该公司最近宣布,其芯片的运算速度达到了每秒1千万亿次。如果这是真的,这将使它成为历史上最快的单模芯片。

   也许没有哪家公司比Lightmatter拥有更令人费解的技术愿景。总部位于波士顿的Lightmatter是由光子学专家创建的,该公司正寻求制造一种人工智能微处理器,这种微处理器的动力不是电信号,而是光束。该公司已从GV、星火资本(Spark Capital)和Matrix Partners筹集了3,300万美元,以实现这一愿景。据该公司称,光的独特属性将使其芯片的性能比现有的解决方案高出10倍。

   在这个类别中还有很多其他的参与者值得关注。地平线机器人(Horizon Robotics)和Cambricon Technologies这两家中国公司的融资规模都超过了其他任何竞争对手。帕洛阿尔托的SambaNova Systems资金充足,血统纯正。尽管关于SambaNova计划的细节仍然很少,但它的技术似乎特别适合自然语言处理。其他值得关注的初创公司包括Graphcore、Wave Computing、Blaize、Mythic和Kneron。

   此外,数家科技巨头也在内部展开努力,开发专用的人工智能芯片。这些项目中最成熟的是上面提到的谷歌张量处理单元(TPU)。和往常一样,谷歌在技术曲线之前于2015年开始在TPU上工作。最近,亚马逊在2019年12月高调宣布推出Inferentia人工智能芯片。特斯拉、脸书和阿里巴巴等科技巨头都有自己的人工智能芯片项目。

   结论

   现在的竞争是开发硬件,为即将到来的人工智能时代提供动力。如今,半导体行业的创新之多,是自硅谷创立之初以来从未有过的。有数不清的数十亿美元在起作用。

   下一代芯片将在未来几年里塑造人工智能领域的轮廓和轨迹。用杨立昆的话来说: “硬件能力……激励和限制人工智能研究人员将想象和允许自己追求的想法的类型。我们手中的工具塑造了我们的思想,其程度超出了我们愿意承认的程度。”

   Rob Toews,为福布斯撰稿人,表达的观点仅代表其个人。

   (文章来源:福布斯中文网)