引言
计算机处理数据的速度主要取决于两个方面,系统内数据传输的速度和数据处理速度,而基于冯·诺依曼结构的现代计算机在这两个方面都遇到了难以突破的瓶颈。2017年,《自然》杂志曾经发出“摩尔定律已经不再适用了”的感叹。在当今大数据时代,人工智能,特别是人工神经网络的研究,却在计算机的性能上提出了更高的要求。冯·诺依曼结构电子计算机似乎已经难以满足人们日益增长的对更快的速度、更低的功耗、和更小的尺寸的需求。研究人员和众多高科技企业都开始发掘异构计算、More-Moore路线、More-than-Moore路线、光子计算、量子计算等新式计算机的可能性。本文讨论了目前最前沿的新式计算机的发展现状和对未来计算机形态的展望。
多种新型计算共同赛跑 多种基于现代电子计算机的新型计算机研发路线百花齐放,互相之间形成一定的竞争关系,也不排除更多路线的产生。在光子计算、量子计算广泛投入商用之前,这些新型及随机将会填补运算方面需求和算力之间的鸿沟。
超新型计算机初见雏形 光子计算机和量子计算机的思路目前都已经做出半成品或到达商业化的早期。目前,由于光子相对于电子的诸多特性,光子计算在光电结合的AI芯片方面的研发力度最大。而目前研的量子计算机也已制作出原型机,更有公司提供了量子云计算服务,然而这些量子相关的产品目前也是主要以科研为目的。未来有望看到经典-量子计算机逐步从实验室里走出来。
未来光的作用不可替代 目前光在通讯和计算机领域逐步发挥着更重要的作用。从光纤网络开始,该领域有了明显的光进铜退的趋势,信息和数据正在逐步实现在计算机内部的光速传播。除了光子计算和光互连外,光子作为量子的一种也可以作为光量子计算的基础,未来在量子计算中也可能拥有一席之地。
一、技术背景:研究新型计算机的必要性
现代计算机以冯·诺依曼结构为基础。该结构中处理单元(中央处理器,CPU)和存储单元(随机存储器,RAM)分开,而指令和数据同时放在存储单元。
(资料来源:Intel,中金公司研究部,本翼资本整理)图一:冯·诺依曼结构的瓶颈——宽带墙
计算机科学发展到今天,CPU的运算速度已经远远超过了访存速度,前者通常是后者的200倍以上,因此CPU在执行指令间不得不等待数据。虽然现代计算机加入了离CPU更近的多级缓存(Cache)结构,为CPU提前读取一批数据;也加入了流水线和分支预测,以减少CPU的等待时间;更有些计算机加入了多核、多CPU等结构,以望提高计算机的性能,但是CPU 和内存之间的数据传输带宽始终是限制计算机性能进一步提高的瓶颈,这也被称为处理器和存储器之间的“带宽墙”。
(资料来源:Ray Kurzweil, Steve Jurvetson,本翼资本整理)图二:摩尔定律发展历程
Intel创始人之一戈登 ·摩尔曾在1956年预言:在价格不变的前提下,集成电路上的元器件的数量,大约18-24个月会翻一番,性能也会提升一倍。随着芯片技术的发展,每块芯片上目前已经能集成上百亿个晶体管;在三星和台积电的竞争中,台积电也率先宣布在2021年开始生产3nm的芯片计划。然而,更高的精度不但在挑战着技术的极限,也在挑战着理论和实用性的极限。
1.2.1 技术极限——光刻技术
光刻机的精度决定了芯片的集成度。光刻机的原理就像幻灯机一样,就是把光通过带电路图的光掩膜投影到涂有光敏胶的晶圆上。为了追逐摩尔定律,光刻技术就需要每两年把曝光关键尺寸(CD)降低 30%-50%,而根据瑞利公式,更高的精度就意味着更短的光源波长、更高的镜头的数值孔径、和更低的综合因素。更短的光源波长作为提高精度的最直接手段,成为了各厂家在竞争中的主要着力点。
目前,精度最高的光刻机采用了EUV(极紫外线)光刻工艺,光源波长从193nm缩短到10nm。然而,即使有朝一日光刻机的精度也实现了突破,电子的物理属性也会又一次限制芯片进一步集成的脚步。
1.2.2 电子极限——电子隧穿
晶体管是一种半导体材料,作为集成电路的一部分,是所有现代电子产品的基本构成。而随着晶体管尺寸的不断缩小,源极和栅极间的沟道不断缩短。当晶体管缩小到一定程度的时候,电子就会产生量子隧穿效应,自由穿越源极和栅极间的沟道。失去了开关作用的晶体管,就难以再组合成为逻辑电路了,继而依赖于0和1进行运算的现代电子计算机,将彻底失去其运算能力。
1.2.3 实用极限——功耗墙
集成电路上的金属线属于电阻性器件,其本身具有的串联电阻使信号在传输过程中不断发生衰减。随着晶体管之间的铜互连线尺寸和间距的减小和微处理器频率的上升,信号发送器需要消耗更多的能量以保证信号能在一定距离内完整传输到接收端,这就是处理器和存储器之间存在着的另一堵“功耗墙”。数据从存储器搬运至处理器的耗能,远大于存储器内部数据搬运和处理器进行数据运算的耗能,两者相差达到100 倍以上。根据英特尔(Intel)的研究显示,CPU 工艺进入7nm 时代,数据传输和访存功耗占总功耗比重达到了63.7%。
(资料来源:Intel,中金公司研究部,本翼资本整理)图三:存储器与处理器间的“功率墙”
二、行业趋势:需求和生产的矛盾
2.1.1 数据时代数据量以指数级别增长
在当前大数据时代,互联网每天产生的数据量以指数级的速度增长。根据IDC(国际数据公司)2017年发布的白皮书《数据时代2025》预测2025年全球数据量总和将达到175ZB(1ZB,一泽字节相当于一万亿GB)。更形象地理解,以80mb/秒(全球平均宽带下载速度)的速度下载175ZB需要5.5亿年。如果全世界所有的人一起下载,则需要25天才能完成。面对每天产生的大量数据,各互联网公司不得不大量地购买服务器。腾讯公司在2019年底召开的Techo开发者大会中透露,其目前有拥有超过100万台服务器。由腾讯云打造的算力共享平台算力弹性资源池有20万的规模,大数据平台每天有1500万的分析任务、30万亿次的实时计算量,并且每天数据接入条数达35万亿。
(资料来源:IDC《数据时代2025》,本翼资本整理)图四:全球数据圈规模
2.1.2 深度学习对计算机提出更高要求
基于人工神经网络算法的深度学习系统是目前各个企业和学术中心关注的热点。不同于通用芯片一般所运行的逻辑运算,深度学习系统的大部分时间都花在低精度的矩阵乘法运算上。而现代电子计算机采用串行运算的方式,面对矩阵乘法的运算效率相对较低。目前实现这一系统的架构来一般可以归结为三类模式:CPU + GPU(图形处理器),CPU + FPGA(现场可编程门阵列),CPU + ASIC(专用集成电路)。根据硅谷人工智能研究组织OpenAI统计,在2012-2020年的8年间,深度人工神经网络的浮点计算量也在以指数速率快速增长,平均每3.4个月翻一倍,远超集成电路摩尔定律的增长速率,同时也伴随惊人的能耗问题,限制了人工智能的发展。于是各企业和研究中心目前致力于设计专门针对人工智能深度学习的硬件,目前参与者从外国到中国,从行业巨头到初创企业,数量众多。他们不光涉及到了芯片生产的各个环节,还涉及到了广泛的应用场景,更有尝试打破现代电子计算机框架。
(资料来源:Semiwiki,本翼资本整理)图五:全球AI硬件行业
2.2.1 光进铜退
1966年高锟博士发表论文分析证明了用光纤作为传输媒体的可行性,渐渐地在基本实现光纤在远距离传输的覆盖后,光纤也在试图向服务器、桌面延伸,甚至是板卡光互连、芯片光互连等。目前,一些个人电脑、高性能服务器及手机等产品上已开始采用光接口。中科创星创始合伙人米磊预言了米70定律:目前在通讯领域,70%的成本是在光器件上,而未来光学成本将占未来所有科技产品成本的70%。可以说光进铜退的现象是大势所趋。
(资料来源:东吴证券,麦姆斯咨询,本翼资本整理)图六:光在通信和科技领域发展进程和预测
三、新型计算机:到未来计算机的过渡
面对上文所提到的现代计算机继续提高算力的诸多瓶颈,多种新型计算机正在积极的开发中:
More-Moore FinFET、GAA、FD SOI、EUV等技术力求继续缩小器件的工艺特征尺寸,向5nm、3nm乃至1nm精度的芯片努力,延续摩尔定律。
More-than-Moore 2.5D、3D等高级封装方案旨在实现更高密度、更高频率信号的互连线,降低延迟,提升数据传输率以打破宽带墙和功耗墙。
存算一体 计算型存储、存内计算等技术力求实现存算之间更加低成本的“无缝对接”,绕开冯·诺依曼结构的内在限制。
Beyond CMOS 光子计算、量子计算在逐步替代电子在计算机中的使用,打破传统电子元器件的限制, 为计算性能的突破性提升带来崭新推动力。
从世界上第一款CPU诞生开始,芯片的设计和制作都是在二维层面展开的,研究重点都是在于如何在单位面积上增加元器件的数量。近年来,芯片生产商也在研发单芯片在空间内的堆叠技术。
2.5D堆叠技术是将多块芯片在硅中介层上使用互连线连接在一起。由于硅中介层的互连线密度可以远远高于传统集成电路板上的互连线密度,因此可以实现高性能互连。2.5D堆叠技术本质上仍然是一种二维平面的叠加。
2018年4月美国加州圣塔克拉拉第二十四届年度技术研讨会上,台积电首次公布系统整合单芯片(SoIC)多芯片堆叠技术,该技术采用的是硅穿孔(TSV)技术把很多性质不同的临近芯片整合在一起。目前,3D芯片技术主要有如下几种:1)基于芯片堆叠式的3D技术,目前仍然广泛应用于SiP领域,这种解决方案在手机中比较常见;2)基于有源TSV的3D技术,该技术都是在芯片工艺制作完成后再进行堆叠形成3D芯片;3)基于无源TSV的3D技术,该技术再SiP基板与裸芯片之间防止一个中阶层硅基板,中介层具备硅穿孔连结上下芯片的金属层;4)基于芯片制造的3D技术,主要应用于3D NAND Flash上,目前已经可以做到64层甚至更高。这主要归功于东芝的Bit Cost Scalable(BiCS)工艺和三星的Terabit Cell Array Transistor(TCAT)工艺。3D芯片可以提高存储密度,扩大存储容量。其通过增大并行宽度或者利用串行传输提升存储带宽,不仅可以环节宽带墙的问题,也能缓解功耗墙的问题。
3D芯片的主要技术难题是散热。AMD的计划是再3D堆栈的内存或逻辑芯片中间插入一个热电效应散热模块(TEC)。在美国国防高级研究计划局的资助下,IBM2018年研究出嵌入式散热方式,将热提取电介质流体泵入微小间隙中。
存算一体指的是将计算机中的运算从中央处理器转入内存中进行,目的是降低数据传输事件以及计算过程中数据存取能耗。目前存算一体的技术主要分为两类:1)片外存储,在存储器中植入计算芯片或者逻辑计算单元,使得计算和逻辑单元与存储器更近;2)片内存储,通过在存储器嵌入算法权重,使存储器具备算法功能,实现真正意义上的存算一体。由于存算一体可以大幅度地减少存储到逻辑和运算单元的距离,在业界和学术界,越来越多的人认为存算一体化未来可以很好地解决基于冯·诺伊曼架构的“带宽墙”和“功耗墙”的问题。
(资料来源:公开资料,本翼资本整理) 表一:存算一体主要技术分类
目前存算一体分为两种:一种是基于易失性、现有工艺较成熟的SRAM或DRAM构建,另一种是基于非易失性、新型存储器件或新材料构建。其中非易失性存算一体芯片算力高、功耗低、成本低,未来在人工智能物联网(AIoT)领域具有非常大的应用前景。基于NOR闪存架构的存算一体AI芯片,利用NOR Flash的模拟特性,可直接在存储单元内进行全精度矩阵卷积运算(乘加运算)。其Flash存储单元可以存储神经网络的权重参数,同时还可以完成和此权重相关的乘加法运算,从而将乘加法运算和存储融合到了一个Flash单元里面。例如,100万个Flash单元可以存储100万个权重参数,同时还可以并行完成100万次乘加法运算。相比于传统的冯·诺依曼架构深度学习芯片,这种的运算效率非常高,而且成本低廉,因为省去了DRAM、SRAM以及片上并行计算单元,从而简化了系统设计。
目前,存算一体芯片的市场广阔,根据Gartner的预测,全球内存计算的市场年复合增长率可以达到20%以上,并且在2020年底有望达到130亿美元。
3.3.1 存算一体面临的挑战
存算一体目前面临着两大挑战。首先,存算一体的应用场景限制条件较多。由于内存器件成本较高,只适合原本就对存储需求量比较大的场景。其次,存算一体芯片产业化刚刚起步,还面临着上游支撑不足,下游应用不匹配的困局。存算一体芯片的广泛使用还需要拓展开发配套服务、工具、新应用和新场景。
3.3.2 存算一体的发展方向和应用
进入物联网时代,更多的终端和边缘设备也需要进行数据处理,存算一体芯片这个领域很有大的发展潜力。这些终端和边缘设备产生的数据数量巨大,发送到云端处理对网络和云端都会造成巨大的压力。而且其大量的数据中仅有一部分是真正有意义的数据。如果能在终端上用有限的处理能力过滤掉无用的数据,那么产品的效率就会大幅度提升。另一个方面,对于有大量待机时间的便携式可穿戴设备上来说,续航能力和隐私保护是两个关乎用户体验的重要问题。存算一体的芯片可以大幅度降低能耗,延长续航时间。另外,如果未来能也拥有强大的处理能力,存算一体芯片更能够避免数据被传输到云端,保护用户的隐私。
(资料来源:公开资料,本翼资本整理)表二:存算一体主要玩家
Beyond-CMOS试图挣脱电子器件的束缚,可以视作为走向未来计算机的过渡阶段。如果说未来的计算机是光子计算机、量子计算机和生物计算机,那么光电结合的计算机,就是挣脱电子数字计算机束缚的第一步。而经典-量子计算机可能也会在不太远的未来成为人们的主要生产力工具。
四、光子计算
光通讯、光互连、光计算……光在计算机科学领域各个层次的应用正在被学术界和产业界如火如荼地讨论着。从1966年高锟博士发表论文分析证明了用光纤作为传输媒体的可行性,到近年来全光网络的探讨;从1990年美国贝尔实验室展示出他们研制出的世界上第一台数字光计算机,到光子芯片原型板卡的推出;由于光子相较于电子的诸多优越性,光正在从微观到宏观的各个层次对计算机领域进行渗透。
(资料来源:公开资料,本翼资本整理)表三:光子与电子的对比
(资料来源:公开资料,本翼资本整理) 图七:光子计算的分类
通常我们所理解的计算机是指数字计算机,即利用逻辑门和0与1的信息来进行计算的。但实际上除了数字计算机,还有一类不依赖逻辑门的计算机,叫做模拟计算机。光模拟计算技术中,运算可以随信号的传播同时进行,光信号也可以互相无干扰地传输。
光学在模拟计算领域的研究早在1970年代就开始了。初期的研究主要集中在图像的相干处理上,表明多种图象处理功能( 如增强、消模糊、相减、识别、综合孔径雷达数据的处理、傅里叶变换、卷积、相关等) 可以用各种滤波处理实现。这样的非线性计算在普通的数字式计算机需要花费相当长的时间,光透过滤镜完成一次傅里叶变换的过程几乎完全不需要时间。但是相干处理的致命弱点是难以消除的相干噪声,严重地限制了它的实际应用。
后期的模拟光学计算研究主要集中在非相干处理上。它利用空间光调制器和其它器件实现各种处理,例如方向滤波、图象编码等。非相干处理可以降低光速的相干性, 抑制相千噪声。另一方面, 在非相干处理中负数运算和复数运算不能直接实现。光电混合处理系统弥补了这个不足 并开辟了许多实际应用领域。它在一定程度上发挥了光的并行性, 增加了系统的灵活性, 提高了处理精度,但大量的光电转换使得计算速度再次受到限制。
光学数字计算机早在上个世纪就问世。将透镜、反射镜、棱镜、滤波器、光开关等器件加以组合,光学逻辑门就能实现。1989年美国贝尔实验室率先采用激光二极管阵列做光源、自电光效应器件做逻辑门阵列、自由空间光束进行互连,制作出了光互连流水线结构全光数字计算机。而后的几十年中,世界各地的研究机构研制出了各种不同的光学器件。然而,全光数字计算机一直没能落地商用的最主要原因是它的集成难度高、整个计算机的体积过大。
光学数字计算机的研发并没有由此停滞:学界产生了光电结合的思路。有科学家提出,可以在使用电子芯片的基础上,将外围的电子设备逐步更换为光子设备。由计算机之间的光通信,到计算机内部的框间互连、板间互连、板上互连、片内互连,即制成全光芯片。得益于集成技术的进步、光纤通讯的经验、以及近年来硅光子技术的突破,光学集成电路PIC已经投入商用。也有科学家从相反的方向努力,即先用光制作最关键的运算器件,制作出光学芯片辅助电子数字计算机。
4.2.1 光电结合的AI芯片
光先天适合线性计算,有高纬度的并行计算能力,也有比电子更高的容错率;利用光子来做人工神经网络系统的矩阵乘法运算,再适合不过。目前,关注于该领域的公司国内外均有。其中曦智科技和Lightmatter用光干涉仪实现矩阵乘法运算,而Optalysys则用空间光调制器处理密集型的卷积函数运算。
(资料来源:《中国激光》,本翼资本整理)图八:人工神经网络运算过程的矩阵乘法和卷积运算
4.2.2 集成和互连的结晶——硅光子技术
光纤在过去几十年内在中国实现了极高的覆盖率,催化了光向用户端延伸的趋势和光子集成技术的进步。在单芯片上混载光路与电路的硅光子技术的进步、微处理器芯片的全局布线等也显示出了芯片间、芯片内采用光互连的可能性。
(资料来源:东吴证券,本翼资本整理) 表四:硅光应用场景
光子由于自身的特点,难以便捷高效地实现相互作用、单元缓存和逻辑运算,其器件集成度也难以达到电子集成电路的规模,因而,利用“光子计算”来取代“电子计算”是不切实际的。“硅基光电计算”是光电子学、微电子学、光子学、数学、算法、计算机系统等深度结合的新型交叉学科,通过软件和硬件的深度联合设计,有望实现超高性能计算。据 Yole 预测,硅光市场的规模将以每年超过40%的速度增长, 到 2025 年其市场规模将超 39亿美元,其中将超过 90 来自于数据中心应用,而光互连的市场将达到1800万美金。
(资料来源:Yole,本翼资本整理)图九:2019到2025年硅光市场规模预测
硅光子技术就是在传统 CMOS 芯片上蚀刻微米级别的光学元器件,作用类似于空间光学里的反射镜,棱镜以及显示器,这项技术大大提高了光学元器件的集成度。曦智科技的光子芯片就利用了硅基光子技术来做数据传输和矩阵乘法运算。沿用目前成熟的半导体工艺技术,现有的光子芯片仅需要45-90nm工艺就可以完成想要的性能。
其架构需要包含如图所示的基本单元,其中光电计算单元(Optoelectronic Computing Unit, OECU)是计算处理性能提升的关键,用以实现高速的矩阵运算和模拟计算等。一些在光域上不便进行的计算操作,如信号延迟、数据缓存和逻辑运算等,仍需要引入算术逻辑单元(Arithmetic & Logic Unit, ALU),主控(Control Unit),寄存器(Register)、缓存(Memory)等,在电子处理单元中实现。而计算、控制和存储单元之间的互连通信和硬件系统I/O等,则通过光互连来实现。
(资料来源:《中国激光》,本翼资本整理)图十:硅基光电子计算初级系统
硅光子技术50 年来大体经历了技术探索(1960年-2000年)、技术突破(2000年 -2008年)、集成应用(2008年至今)三个阶段。期间内,欧美一批传统集成电路和光电巨头通过并购迅速进入硅光子领域抢占高地,以传统半导体强国为主导的全球硅光子产业格局悄然成形。
(资料来源:Yole,本翼资本整理)图十一:硅光行业中各公司的发展阶段
美国以 IBM、Intel、Luxtera 公司为代表,近年来都在光互连技术研发方面取得了不错的成绩硅电子技术在欧洲也收到广泛的关注,PICMOS、WADIMOS、STREP、PLAT4M等项目相继成立。日本发展光电子技术时间也较早。2010 年,日本开始实施尖端研究开发资助计划(FIRST),该计划由日本内阁府提供支援。光电子融合系统基础技术开发(PECST)是 FIRST 计划的一部分,以在 2025 年实现“片上数据中心”为目标。
我国硅光子产业发展道路曲折。2015 年 4 月 9 日,美国商务部发布报告,决定拒绝英特尔向中国的超级计算广州中心出售至采用硅光子技术“至强”(XEON)芯片用于天河二号系统升级的申请。2016 年 3 月 7 日,中兴通讯首度遭受美国商务部制裁,不仅不允许其在美国国内采购芯片,并要求供应商全面停止对中兴的技术支持,制裁条款整整实行的 1 年;在当时,美国硅光子公司 ACACIA 每年 25%硅光子模块的产量都是销往中兴通讯。
目前,光迅科技、华为、海信都已经在硅光子产业开展部署规划,光迅科技已经投入研发探索硅光集成项目的协同预研模式,力争打通硅光调制、硅光集成等多个层面的合作关节,但是国内整体技术发展距离发达国家仍有较大的差距。中国在光电子器件制造装备研发投入分散,没有建立硅基和 InP 基光电子体系化研发平台。随着国内企业综合实力逐渐增强,以及国家集成电路产业的扶持,国内厂商需要不断加快推进硅光子项目。上海也是硅光子发展的源泉:2017 年,上海市政府将硅光子列入首批市级重大专项;2018 年 1 月,国内首个硅光子工艺平台在上海成立;2018年7月张江实验室开始建造我国第一条硅光子研发中试线。
(资料来源:Yole,本翼资本整理)图十二:硅光技术产业链逐渐清晰
4.2.3 光学神经拟态
与深度学习采用的多层人工智能神经网络(CNN)不同,神经拟态计算构造的是脉冲神经网络(SNN),通过模拟生物神经网络实现智能。它本身就是能处理信息的载体,不再依赖于计算机。神经拟态学工程师、德国海德堡大学物理学家卡尔海因茨·迈耶(Karlheinz Meier)表示,人脑相对计算机而言有三大特性:一是低能耗,人脑的功率大约是20瓦特,而当前试图模拟人脑的超级计算机需要几百万瓦特;二是容错性,人脑时刻都在失去神经元,而不会影响脑内的信息处理机制,而微处理器失去一个晶体管就能被破坏;三是无须编程,大脑在与外界交互的过程中自发地学习和改变,而无需像实现人工智能的程序一样遵循预设算法所限制的路径和分支。
光学神经拟态计算的研究方向主要包含三部分:1)符合神经元生物特性的光子神经元研制;2)基于光学设备动态物理特性的光脉冲学习算法设计;3)大规模可集成光学神经拟态网络框架设计。目前,国际上在神经拟态处理领域颇具影响力的项目组包含IBM的SyNAPSE项目,德国海森堡大学的FACETS/BrainScales项目以及英国曼切斯特大学的SpiNNaker项目。
目前国际上最新的进展有2020年初皇后大学的研究队伍发表的论文。皇后大学研究队伍利用硅光子技术,将光子神经元利用波导来连结制作出了光学神经拟态芯片。
光神经拟态计算有一定的优势。它探索超快光脉冲信号的自适应性、稳健性和快速性,能够避免传统数字光计算的芯片集成及模拟光计算的噪声积累等问题。但是神经拟态芯片和AI加速器的价值取向完全不同,目前并不一定形成竞争。神经拟态芯片是面向未来的技术,旨在打造全新的架构,建立新的智能模型和体系。而AI加速器则是立足当下产业的技术,其目的是把“计算机+软件”打造的人工神经网络硬件化,提高运行效率。
4.2.4 三值光学计算机
传统电子计算机通常用“1”和“0”代表电位高与低两种物理状态,以二进制运算。计算机发展史上,4位电子CPU出现在1971年;直至2006年才出现64位CPU。由于电子器件存在绝缘解决方案的瓶颈,传统原理的计算机处理器增加位数越来越难,不得不依靠在单核基础上做加法,以多个处理器的“多核”提高计算能力。
上海大学在2017年制造了三值光学计算机。他们的研究中,光的物理状态以“暗态”“亮态”来表达,其中“亮态”还可分为两个正交的偏振态,使得光学定义上一个数据位可以有三个取值,突破了“1”和“0”的限制。该三值光学计算机用液晶阵列控制光束的偏振方向,配合偏振片来完成信息处理。由于液晶阵列的像素非常多,又不存在绝缘瓶颈,所以三值光学计算机的数据位数非常多,可轻易达百万位。另一方面,数百万像素液晶屏的功耗也在毫瓦级,决定了三值光学计算机耗能很小。更值得一提的是,基于光的特性,研究人员专门研发了名为MSD的特殊加法器,用神奇的方式省去计算机加法运算中的进位过程。“无进位”加法的使用,令计算机运算过程中百万位级别的加法与“11”的运算耗时一样长。上海大学是唯一能够制造三值光学计算机硬件和软件完整系统的单位。目前这个领域的各项专利都属于上海大学。
曦智科技
曦智科技,也叫Lightelligence,是一家关注光子AI芯片的创业公司。曦智科技的目标涵盖硬件到算法,在未来 2-3 年将致力于布局与打造包含芯片设计、核心算法、传输等在内的完整光子计算生态。
一经成立便获得资本青睐。成立短短三年年时间,曦智科技在2007年底获得1070万美金的种子轮融资后,再次在2020年获得2600万美金的A轮融资。这轮融资由经纬中国和中金资本旗下中金硅谷基金领投,祥峰投资、中科创星、招商局创投等跟投,老股东百度风投和峰瑞资本持续加码。此次A轮融资使曦智科技的累计融资额达到3670万美元,成为了目前全球融资额最高的光子计算创业公司。2019年,曦智科技同阿里云、百度、华为等公司一同入选《麻省理工科技评论》50家聪明公司。硬件与算法双管齐下。曦智科技采用先实现高密度光电混合芯片再持续优化的策略,积极进行系统设计、芯片设计、封装设计、测试技术开发。其核心技术有:
(1)设计技术包括 PDK、仿真软件、特殊光电单元库。
(2)封装设计技术包括高通道(64 路以上)封装技术、基板及制具设计技术。
(3)测试技术包括测试软件、测试工具,提供基于光电混合架构芯片的 PCle 板卡与全栈式软件。
曦智科技的创始人兼CEO沈亦晨博士在2019年4月发布的全球首款光子芯片原型板卡,它使用光干涉仪作为基本的矩阵运算单元有效取代了传统电子晶体管。测试中,该光子芯片运行了Google TensorFlow自带的卷积神经网络模型来处理MNIST数据集,整个模型超过95%的运算是在光子芯片上完成。光子芯片处理的准确率已经接近电子芯片(97%以上),另外光子芯片完成矩阵乘法所用的时间是***的电子芯片的1%以内。
(资料来源:Heuristic recurrent algorithms for photonic Ising machines, 2020, Roques-Carmes C., Shen Y. 本翼资本整理)图十三:沈亦晨团队研发的伊辛算法原理
沈亦晨博士在2020年1月发表于《自然-通讯》的研究中提出了一种新的伊辛(Ising)算法,该算法专门用于探索 NP完全问题。此项研究证明了光子对于复杂问题优化解决的效率要远高于现有已经实现的量子解决方案。有些光计算的劣势,比如天然的动态噪声,反而在这类计算上帮助了他们更快地找到问题的答案。
商业化进程中且应用场景广泛。曦智科技的目标是制作商业化、应用广泛且兼容性强的芯片,并在未来几年内投入市场。除了硬件上的挑战之外,曦智科技希望对光子、电子和周边器件进行系统级的优化,形成客户能接受的新软件生态。
数据中心和服务器是曦智科技光子芯片落地的首选场景,因为数据中心的环境相对可控,并且这一市场会更多地考虑附加值,使光子芯片的算力优势能够更好地发挥出来。光子这种求解伊辛问题的更优能力,从生物学研究到药物发现再到路线优化,在大量科学工程学中遇到的优化问题上都有施展的空间,未来或可以帮助到生物技术、出行等不同的行业。同时边缘设备也能受惠于这一技术,例如对功耗更敏感的无人机、传感器等设备。
公司计划将该光子芯片提供给一些合作方、潜在客户进行测试,目前已经有Google、Facebook、AWS、BAT 级别的客户与 Lightelligence 接洽。
Lightmatter
Lightmatter是一家成立于波士顿的人工智能芯片公司,由一只来自MIT的研究团队成立,沈亦晨就是其中之一。而他在2017年离开了Lightmatter,回国创立了曦智科技。Lightmatter的目标是结合电子、光子和新算法,为深度神经网络等人工智能运算打造下一代运算平台。累计融资3300万美金。继2018年初Spark和Matrix两家公司的1100万美金投资,Lightmatter又在2019年初锁定了Alpha旗下风投基金的2200万美金投资。Lightmatter一直被各界所认可和关注:2019年,Lightmatter被WeWork赞助的BostInno网站评选为年度最值得关注的20家创业公司;2020年,全球知名的市场数据研究平台 CB Insights将Lightmatter评选为30家有潜力改变世界的公司之一。原型板卡释出时间暂不明确。Lightmatter正在开发的芯片基于现有的CMOS技术,利用已经非常成熟和最基础的硅光技术,只将最关键的运算部分——矩阵乘法建立在Mach-Zehnder干涉仪上。通过只用光来做矩阵乘法,Lightmatter无需再等待光存储等方面的技术突破。由于Lightmatter和曦智科技创立之初都是基于同一篇论文,两家公司现在的发展路线也大同小异,然而截至目前为止,Lightmatter还没能释出其第一块AI芯片。但是Lightmatter的创始人之一哈里斯表示公司将在五年之内推出能够商用的光学芯片。
Optalysys
Optalysys是一家从剑桥大学走出来的公司,成立于2013年。它也是全球首家致力于开发光学计算并获得专利认证的公司。2019年3月7日,Optalysys上架了全球第一个光学协处理系统FT:X2000,首次实现了使用其技术的卷积神经网络。
(资料来源:Optalysys,本翼资本整理)图十四:Optalysys公司协处理器原理
与曦智科技和Lightmatter不同的是,Optalysys的AI协处理器系统的强项在于对大量图片数据进行高速处理。Optalysys架构采用空间光调制器(SLM)来操纵光信号,光速处理傅里叶变换,且能够兼容目前显示器行业正在为高分辨率微型显示器进行开发的高性能组件。Optalysys的CEO Nick New表示该系统的准确率超过70%,速度比GPU快300倍以上,而功耗仅为GPU的四分之一。除了核心技术的开发,Optalysys也力求能为光学处理器提供无缝衔接,为使用者提供最简便的使用方式,并使其能够快速编程。该产品主要的应用场景包括无人驾驶、医学图像分析以及安全系统。
OPtalysys所采用的SLM和相关光学组件有望在外来变得更小、更高效,可能在外来允许Optalysys架构变得足够紧凑,用于面向消费者的应用,如手机。除了图像处理,Optalysys也在探索一些一般情况下不会将其傅立叶变换联系在一起的任务,如天气预报,偏微分方程的求解等。此外,Optalysys也正在和Earlham研究所合作,意在开发出一种新的基因搜索系统。
Luminous
光学AI芯片初创公司Luminous是一只从普林斯顿大学走出来的研究队伍。2019年,Luminous获得了比尔·盖茨、Uber联合创始人的10100基金和Uber CEO的900万美元投资。
他们所采用的方案不是基于Mach-Zehnder干涉器,而是称为Broadcast and Weight方案(以下简称B&W方案)。输入信号编码在不同的波长上,经过微环型光学滤波器的作用,每个波长的强度受到调制,该过程对应于乘法运算。随后,光信号在探测器处被探测,转换为光电流,该过程对应于加法运算。该电流作为激光器的注入电流,使得激光器处产生对应的光信号输出,用于连接下一个神经元,该过程对应于非线性激活函数。目前B&W方案已经实现了2个神经元、4个权重的演示。
与Mach-Zehnder型方案(基于硅光芯片的深度学习)相比,主要区别有以下几点:
(1)Mach-Zehnder型方案中没有发生光电转换过程,而B&W方案中发生了两次光电转换过程
(2)Mach-Zehnder型方案基于光场的干涉,因此其对相位敏感。而B&W方案是一种非相干方案,信号加载在光的强度上,因此对相位不敏感。
(3) Mach-Zehnder型方案采用单个波长,而B&W方案必须采用多个波长。
(4)B&W方案采用微环作为可调谐滤波器,其芯片尺寸大大缩小,功耗减小。
据该公司高管说,他们目前的原型比其他***的人工智能芯片节能3个数量级。
LightOn
LightOn是一家成立于2016年的公司,目前已经获得共计500万美金的融资。LightOn的目前已经制作出来一个协处理器Aurora,内嵌一个非常高效的光学内核Nitro。其技术核心是多重光散射。
目前,LightOn提供两种解决方案:用户从2020年4月可以付费使用LightOn Cloud,也可以一台LightOn Appliance,设备将在2020年下半年发货。LightOn希望提供给用户简单易学的使用办法,目前只需要在Python上简单地Import就可以使用LightOn的协处理器,类似于GPU的使用方法。在LightOn的测试中,在耗能上,用户同时使用自己的CPU或GPU加上LightOn是只使用CPU或GPU的二十分之一,而同样计算量,花费时间是后者的八分之一。
(资料来源:LightOn,本翼资本整理) 图十五:LightOn性能对比
光子算数
光子算数是一家光子AI通用芯片研发生产商,2017年成立于北京。光子算数的业务涵盖芯片设计和机器学习指令集两个领域,致力为用户提供光子AI通用芯片设计、生产、销售,AI指令集,传输以及周边生态等技术服务。据悉,光子算数已经获得A+轮融资,估计融资金额在千万人民币。
光子算数的CEO白冰是北京交通大学电子工程学院博士,他称自己在2017年阅读了Lightelligentce和Lightmatter背后MIT研究团队发表的论文后得到了启发,成立了光子算数公司。公司目前有一项光子人工智能芯片的专利在审核中。专利展示的芯片包括用于将电信号转换为光信号的调制器;与调制器相连、用于将光信号分成多束子光信号的光学分束器;与光学分束器相连且与子光信号一一对应、用于传输子光信号的光传输介质,其中,光传输介质为硅波导或光纤;用于接收子光信号并对子光信号进行计算的计算模块。然而,该芯片不是在最核心的计算模块上进行创新,而是减少调制器的使用数量,以降低光子人工智能芯片的面积和pin脚的数量,从而降低光子人工智能芯片封装和测试的难度。
(资料来源:国际知识产权局,本翼资本整理) 图十六:光子计算的光子AI芯片专利
Fathom Computing
Fathom Computing也是一家为人工神经网络学习服务的光电硬件初创公司。Fathom Computing称其目前拥有超过300个专利和发表文章。
Ayar Labs
Ayar Labs是一家提供芯片间光互连解决方案的初创公司,他们的研究团队来自于麻省理工大学。AyarLabs在2018年获得了格罗方德和英特尔资本的2400万美金投资。
Ayar Labs将其集成硅光子学优势引入边缘多芯片模组,他们的直达芯片“direct-to-chip”光学解决方案目前已经实现商业化。他们可以为合作伙伴的芯片实现高带宽、低延迟且低功耗的光通信。据Ayar Labs称,他们可以将互连的带宽提高1000倍,而只有十分之一的功耗。Ayar Labs目标将光互连应用在人工智能、超级计算机、云计算、通讯、航空航天、军事、无人驾驶等行业。
如上文提到,许多计算机行业的巨头也在参与着光的游戏。其中一些在投资有前景的初创,一些拥有自己的研发团都。例如,Alpha投资了曦智科技,IBM的研究队伍在全光计算机和光学神经拟态计算机上都有突破,华为最近也发表了其在光子芯片研制上的突破:华为直接放弃了“光刻机”和“让台积电代工”这两条路。决定另辟捷径研发“光子芯片”,从而在根本上解决问题。华为的光子芯片是将磷化铟的发光属性和硅的光路整合到单一混合芯片上,由激光驱动电信号,大大降低了光刻机的使用。
现代电子计算机都是用“0”和“1”的二进制系统进行运算的,这两个二进制数字经常被称为比特。随着时代进步,物理学家和工程师们能够使用越来越小的器件来构建功能性比特。真空管和电磁继电器逐渐被现代化的集成电路所代替。一个指尖大小的芯片上聚集着数十亿个晶体管。然而,当微型化接近原子大小的时候,这个围观世界的物理法则就发生了变化,我们进入了量子力学奇境。量子比特,可以是0和1的任意组合。用于存储时,N个量子比特理论上可以同时存储2N的数据。例如,250个量子比特可存储的数据就是2250 ,这个数字比已知宇宙所有原子加起来还要多。250个量子比特用于运算时可以同时计算2250的数学运算,相当于经典计算机要重复2N的计算。因此,理论上,量子计算机可以只花费几秒就对1000 位的大数进行因数分解,而传统的计算机则需要1025 年。
相较于由比特构成的经典计算机,由量子比特构成的量子计算机的功能可能更加强大,但也更加复杂和脆弱。量子计算机的研究是目前最前言的方向之一。但是目前,一台量子计算机比基于现代晶体管的经典比特更大。
量子计算机从应用上主要分为三大类:量子退火、量子模拟和通用量子计算。其中,量子退火适合解决优化问题,对一些特定问题的运算效率很高,例如对路径的优化等。量子模拟适合探索化学、生物等科学里的复杂现象,例如蛋白质折叠。而通用量子计算类似于通用人工智能,旨在解决各种复杂问题,然而这种量子计算机的研发难度也最大。
量子计算从算法上也分为三大类:Shor算法、Grove算法和HHL算法。其中,Shor算法可以快速解决大数的因数分解,Grove算法可以快速从未分类的元素中找到某个特定元素,而HHL则可以快速求解线性方程组。
(资料来源:东吴证券,本翼资本整理)表五:量子计算的主要技术流派
目前制造出来的量子计算机主要是出于研究目的。
2019年10月,Google发布了一个名为Sycamore的量子计算原型机,并宣称其以压倒性优势解决了一个目前最好的超级计算机难以解决的问题。Google将这个量子计算的里程碑为量子霸权——量子计算机能够完成一项通常的经典计算机无法在较短的时间内完成的任务。让人惊讶的是,他们的这台量子计算机只由几十个低质量(或“噪声”较大)的量子比特构成,可它的性能却能够比肩由数百上千亿高质量比特所构成的***的经典计算机。
IBM凭借其在计算机领域的先驱者地位和在量子计算上几十年的积累也在2019年9月实现了一个量子计算领域的里程碑:他们推出了全球首台计算性能最强悍的53位量子计算机。另外他们还推出了基于一个免费的量子计算云平台IBM Q。任何人都可以申请账户,在IBM的云平台上进行量子计算的研究和一些新算法的探索,但是其只有5个量子比特的运算能力。另外也有阿里巴巴、Google、微软、亚马逊相继于2017-2019年推出了自己的量子云服务平台。
除了Google和IBM两个开发者之外,还有很多大公司、初创企业和大学分别使用不同的方式在进行着量子计算的研究。Google、IBM和Rigetti采用的量子比特都由超导金属刻蚀而成的微纳谐振电路构成。
我国在量子计算方面虽然起步晚,但是也有一系列的成果。
在2015年7月,阿里巴巴就与中国科学院联合成立了量子计算机实验室。2017年5月,潘建伟教授团队联合王浩华教授团队发布了基于光子和超导体系的量子计算机研究方面的突破性进展。在光学体系,在实现十光子纠缠操纵的基础上,利用高品质量子点单光子源构建了世界首台超越早期经典计算机的单光子量子计算机。2017年10月,清华大学、阿里巴巴-中科院(施尧耘团队)、本源量子-中科大(郭光灿院士团队)在同一天发布了各自的量子云平台。2018年2月,中科院与阿里云在超导量子计算方向发布11比特的云接入超导量子计算服务。这是继IBM后全球第二家向公众提供10比特以上量子计算云服务的系统。该服务已在量子计算云平台上线,在云端实现了经典计算仿真环境与真实量子处理器的完整后端体验。2018年3月,百度宣布成立量子计算研究所,开展量子计算软件和信息技术应用业务研究,悉尼科技大学量子软件和信息中心创办主任段润尧教授出任百度量子计算研究所所长,直接向百度总裁张亚勤汇报。计划五年时间里在百度组建世界一流的量子计算研究所,并在之后五年将量子计算逐渐融入百度的业务中来。从专利数量排名上看,目前头部公司以 IBM 、谷歌、微软等美国企业为主,中国只有初创企业本源量子一家在前 20 位,差距非常明显。
(资料来源:incoPat,本翼资本整理)表六:全球量子计算专利数排名
5.1.1 本源量子
合肥本院量子计算公司成立于2017年9月11日,是国内首家量子计算初创公司。本源量子围绕量子计算机还开展其他多项研究开发:量子芯片、量子云、量子测控、量子软件和量子应用。
目前,该公司的核心产品有玄微和夸父两个量子芯片。其中,玄微XW S2-200是本源第二代硅基自旋二比特量子芯片,其通过调节栅电极上的超快电脉冲以及微波脉冲,实现了硅基半导体自旋量子比特的单比特和两比特普适量子逻辑门单元。而夸父KF C6-130是本源第一代超导六比特量子处理器。超导量子芯片是基于对超导约瑟夫森结构进行改造,构造出超导量子比特,并通过“量子数据总线”来实现6个超导量子比特的任意两两相互耦合。利用精确设计的脉冲序列,可以实现高保真度的量子逻辑门操作,进而能够设计并演示量子算法。
在云平台方面,本翼推出了32位量子虚拟机、64位量子虚拟器、半导体量子计算机和超导量子计算机四个平台,都可以通过其官方网站进行使用。在测控方面,本源量子提供标准化的量子测控仪、个性化定制的量子计算机控制系统解决方案、低温电子器件和量子功能器件。在软件方面,本源推出了量子软件开发套件QPanda,其是基于本源自主研发的OriginIR量子语言指令集而开发的套件。本源另外也提供EmuWare量子虚拟机和Qurator本源量子软件开发插件。本源的量子软件可以广泛应用在机器学习、大数据和生化制造等方面。本源为不熟悉相关技术的客户也提供辅助应用设计。在应用方面,本源量子推出了ChemiQ,一个运行量子程序的化学应用系统。其主要用来模拟化学分子在不同键长下对应的能量,也可以查看和分析历史计算结果。另外该公司还有自己的《量子计算与编程入门》教材,本源量子在线教育平台和量子计算科普系列漫画。
Google的量子人工智能实验室主任Hartmut Neven在2019年的Google春季研讨会上首次提出了Neven定律。他预测量子计算机的算力将会以“双指数速率增长”,这意味着它的增长速度大大超过了摩尔定律。其数量级不是按 2 的幂增长,而是按 2 的幂的幂增长。这种增长方式有些难以理解,以至于在现实中很难找到这样的案例。量子计算的发展速度可能是第一个。
(资料来源:公开资料,本翼资本整理)图十七:双指数速率增长
Neven定律并非空穴来风:2018 年 12 月,Google 的研究人员可以使用一台普通的笔记本电脑就可以复制其最好的量子处理器上进行的计算。到了2019年1月,复制Google改进版的量子芯片上的计算就需要使用功能强大的台式计算机。而到了2019年2月,大楼中不再有任何经典计算机可以对量子计算机的研究进行模拟了。研究人员必须在谷歌庞大的服务器网络上请求算力才能完成。
5.3.1 量子纠错
量子比特可以同时是0和1这两个状态的任何组合,而这种中间态会在极其短的时间内退相干。量子比特也是非常脆弱的,会受到周围环境极其微弱的相互作用影响发生错误。为了使得量子比特的计算结果有意义,研究者们必须找到办法纠正这些错误,而量子纠错是一项难度巨大的工作。在Google量子霸权的演示中,他们利用53个量子比特完成了一台超级计算机需要数千年才能完成的计算,但是其结果中99%的是噪声,只有1%是真正的信号。于是量子纠错将会是量子霸权后的下一个重要的里程碑。
在计算机发明之初,由真空管或继电器组构成的比特有时会毫无征兆地发生反转。为了克服这一问题冯·诺伊曼开了计算机纠错的先河。他利用冗余的方式,对每一个输出进行拷贝,然后再用奇偶校验的方式查找错误,然后进行纠错。而更大的冗余就意味着更大的纠错能力。但其实,现代计算机用来编码比特的微芯片晶体管十分可靠,并不需要纠错。
但是,对于像利用超导量子比特构成的量子计算机而言,纠错就并不是简单的冗余、校验、翻转的问题了。然而在量子力学中,不可克隆定理告诉我们,不可能在不改变量子比特原始状态的情况下将其状态复制到其他量子比特上。就意味着我们不可能直接将经典的纠错码转换成量子纠错码。于是,研究者们只能通过量子纠缠的方式,将一个比特的态扩展到其他比特上去。他们将将单个逻辑量子比特编码到一个物理比特组成的网格阵列中,逻辑比特的保真度随着阵列的尺度增加而增加。
2020年6月8号,苏黎世联邦理工学院(ETH Zurich)的Andreas Wallraff教授及其合作者在其发表的一篇《自然·物理》论文中演示了探测一个4比特正方网格编码的逻辑量子比特中的错误,但是还没有进行纠正。尽管这足以演示量子纠错的原理,但要建造实用量子计算机,物理学家必须能够控制大量的量子比特。一个完全成熟的、拥有上千个逻辑量子比特的量子计算机,最终将需要好几百万个物理比特。
然而量子纠错也并不是量子计算机的最后一个挑战。一旦科学家们掌握了量子纠错,他们又必须重复目前为止量子计算领域所做的几乎所有开发。不过这次是在更稳健、但更复杂的逻辑量子比特上而不是物理量子比特。
5.3.2 稀释制冷机
有两种量子计算机只能在极低温的环境运行:超导量子计算机和基于半导体量子点的自旋量子计算机。它们都用到了极为精细的能级结构。在很低的能级下,想保持其中量子态的相干性,环境中的噪声就必须远低于这个能级差。而要想清楚地看到一个量子电路中量子态的相干演化,所需的环境温度需低至30mK以下。在这样的高要求下,目前人类掌握的制冷技术中只有稀释制冷技术可以实现。
稀释制冷技术早在60年前被发明,并且很早就商业化了。到如今,稀释制冷机虽然仍是非常昂贵的设备,但并不稀有了。目前,我国从事低温输运、量子计算研究的几个**团队拥有十余台稀释制冷机。但是我国目前还无法自主生产稀释制冷机。目前我国拥有的稀释制冷机基本上都来自于牛津仪器、Bluefors、Janis和莱顿这四家。
类似于光子计算,基于现在的技术水平,一新发展全量子计算是盲目的。这不仅是因为科学技术的进步不是一蹴而就的,而且也是因为量子计算在处理简单运算时并不一定比现代计算即更高效。于是,目前量子计算领域也发展出了经典-量子混合计算的方向,即使用经典计算机调用一个相对较小的量子“协处理器”来做一些关键的计算。这种协处理器的思路类似于GPU来协助人工智能深度学习。
(资料来源:公开资料,本翼资本整理)图十八:CPU、GPU、QPU计算效率对比
如图所示,解决问题的时间复杂度与算法有关。针对某一CPU、GPU、QPU都能解决的问题基于CPU开发的经典算法时间复杂度为O(N2),经过GPU并行计算优化后经典算法时间复杂度降低为O(N),基于QPU开发的量子算法利用量子叠加态原理时间复杂度保持在O(1)。在解决小规模问题时,QPU为获得运行结果的概率分布仍旧需要做多次观测,而GPU需要由CPU向GPU传输数据而消耗时间,因此CPU的效率最高。然而随着问题规模的增大,最终运行效率QPU>GPU>CPU。
量子计算将有望促进以下研究领域的发展:
然而由于量子计算在短时间内能进行大量运算,它具有了短时间内破解现代密码和其他安全措施的能力。目前破解难度最大的是密级最高的1024位公钥密码体制。破解这一密码,当前***的超级计算机需要几百万年事件。而一台1024比特的量子计算机只需要几天时间就能完成破解。于是,在量子计算机研发的同时,研究人员们也同时需要研发新的量子密码加密系统,例如量子通信,它具有不可复制、可实施察觉监听者等特征,从众多加密方式中脱颖而出。量子通信利用量子介质的信息传递功能进行通信的一种技术。它主要包括量子密钥分配、量子隐形传态等技术。量子密码 (Quantum Cryptography)是利用量子力学属性开发的密码系统。与传统的密码系统不同的是,它的安全性依赖于量子力学属性(不可测量和不可克隆等)而不是数学的复杂度理论。
虽然许多专家并不认为量子计算机能够在未来十年内具备破解现代标准密码术所需要的复杂计算能力,但是美国国家标准与技术局NIST已经走在了前面。他们计划让新的密码标准在2022年之前做好准备。这一机构正在审查其“后量子密码学标准化程序”的第二阶段,以缩小抗量子破解并能够替代现代密码学的最佳候选加密算法的范围。NIST的计划主要考虑两大类的算法,第一类包括密钥建立算法,这类算法可以确保从未碰面的通信双方能够对共享的保密信息达成一致。这一类同时也包含公钥加密算法——比如RSA和椭圆曲线加密术。第二类包含数字签名算法,用于确保数据的真实可靠性。这种数字签名在代码签署等应用中非常重要,如此一来就可以确信一个程序是由预期的开发者开发的,而不是一个黑客。
六、展望未来
目前,为了在摩尔定律走向尽头之时找到新型电脑的新方向,各高校和企业的研究团队都在紧锣密鼓地开发中。一时之间,云计算、 EUV光刻技术、3D芯片、存算一体等研究思路百花齐放。而在这其中,最具有未来感和前瞻性的方向就是Beyond-CMOS,其包括光子计算、量子计算等。囿于当今的技术水平,全光和全量子计算机还不能完全实现。而光电结合计算机可能在未来数十年内成为主流,而经典-量子计算机可能在未来50年甚至更长时间才能落地。两者都可能按照从数据中心到个人电脑的路线逐步投入应用。
光电计算机、经典-量子计算机投入商用前, More-Moore、More-than-Moore、存算一体等新型计算机会互相之间形成竞争关系,针对不同的需求在不同的领域应用,例如存算一体在边缘计算等场所有巨大潜力,而3D堆叠芯片在高端消费电子领域有很大的潜在市场。也有极大的可能出现在这三种路线之外的新路线。目前这三种路线都是基于现代电子计算机而开发的,但是这三种路线或思路在光电计算机、经典-量子计算机出现后,也可以在未来提高光电计算机、经典-量子计算机的运算速度和集成度的任务上进行参考。
从技术上讲,光电结合的人工智能芯片走在了光子计算的最前端,目前曦智科技、Lightmatter等公司纷纷走向商业化或将商业化提上了日程。而全光制造的人工智能芯片已经孕育在了IBM的实验室中。5G大力推动了硅光子技术的发展,光互连在Ayar Labs的推动下已经商业化,而中国的企业,如华为、光迅科技,在政府的支持下正在迎头赶上。光学神经拟态的研究还一直局限在实验室里,但是各大研究队伍,如北大任全胜的队伍也还在积极寻求突破。虽然各个研究队伍的突破点不同,但是共同的思路都是一样的。那就是,不盲目追求一步到位做到全光个人电脑,而是或从外部或从内部逐渐用光替代电,并且逐步完善周边配套软件。相信在光电结合技术大规模铺开应用的时候,各个研究队伍积累到的经验,可以帮助未来全光计算机的实现。而量子计算,由于其技术难度更大,并且也需要更多量子物理学理论上的突破。和光子计算机类似,经典与量子相结合的思路可以一边提高算力,满足日益增加的大数据运算量和人工智能运算量,一边积累经验继续向通用量子计算机方向努力。
从行业上讲,目前全球出现和很多初创公司在各个角度为提升算力而做出努力。目前最活跃的各类人工智能芯片初创公司,而文中提到的光学AI芯片公司只是冰山一角。与此同时,行业巨头们,如华为、Intel、IBM等,也在该领域十分活跃。他们不仅拥有自己的的研究队伍,也在积极投资有前景的初创企业。在《麻省理工科技评论》的一次公开活动上,华为战略研究院院长徐文伟就明确表示,未来 5 到 10 年,华为每年会给世界各地的大学和实验室投入 3 亿美元,将投资包括光计算在内的几大新兴技术方向。总的来看,他们的投资范围广、数量大,并没有把赌注下在任何单一技术上。
来源:36kr
作者:36kr
重要提示:本文仅代表作者个人观点,并不代表乐居财经立场。 本文著作权,归乐居财经所有。未经允许,任何单位或个人不得在任何公开传播平台上使用本文内容;经允许进行转载或引用时,请注明来源。联系请发邮件至ljcj@leju.com,或点击【联系客服】