AI芯片公司的数据中心、端点或AIoT设备

目前世界各地涌现出许多初创公司,它们对如何更好的地实现AI提出了新的想法 。小编下面给大家说说目前的几家大的AI芯片公司的终端应用 。
数据中心的人工智能
根据位置不同,数据中心可以算作“边缘” 。边缘计算的关键概念是在(或接近)生成或收集数据的相同地理位置处理数据 。这包括网关或集线器设备,也包括加速公司单一人工智能应用程序的内部服务器 。想想医院或医学研究机构中加速x射线或CT扫描图像分类的服务器,以及从工厂接收状态数据并在现场处理的网关 。
Graphcore
总部位于英国布里斯托尔的Graphcore公司在早期的一轮融资中获得了超过10亿美元的估值,成为首家被认定为独角兽的西方半导体初创公司 。
Graphcore的IPU(智能处理单元)芯片拥有超过1200个专业核心的大规模并行架构,每个核心可以运行6个程序线程 。还有大量的片上内存,几百MB的RAM,更重要的是,还有45 tb的内存带宽 。这使得整个机器学习模型可以存储在芯片上 。
Graphcore的IPU芯片可以在戴尔服务器上用于边缘计算应用程序 。
Groq
Groq是由谷歌的一个团队在硅谷创立,拥有70名员工,迄今已筹集了6700万美元的资金 。在SC ' 19,他们正式推出了他们的超大芯片,可以达到1000 TOPS 。
【AI芯片公司的数据中心、端点或AIoT设备】 Groq的软件优先的方法意味着他们的编译器处理许多通常在硬件中会发生的控制功能,比如执行计划 。软件会编排所有的数据流和时间,以确保计算不会出现停顿,并使延迟、性能和功耗在编译时完全可预测 。
Groq正以其张量流处理器(TSP)芯片为目标,瞄准数据中心应用和自动驾驶车辆 。
Cerebras
Cerebras是以恢复圆片规模芯片的倡导而著称,而这个想法早在80年代就已经被放弃 。
我们常见的处理器都是经过封装之后才可使用的,实际上如CPU中的核心裸片大小一般在200平方毫米以下,而GPU核心的大小也没有超过1000平方毫米的,所以在一片晶圆上可以切割出很多核心裸片 。不过这并不代表无法制造超大尺寸的芯片,在Hot Chip 31会议中,Cerebras Systems就推出了一款晶圆级深度学习芯片,尺寸达到了215×215平方毫米 。几乎占据了一整个晶圆的大小 。
Cerebras庞大的46,225mm2的芯片,占用整个晶圆,其功耗15千瓦,在84个处理器块上封装40万个核和18GB内存 。虽然这些数字看起来非常庞大,但请记住,这么大的芯片被设计出来,目的是代替成千上万个GPU的 。
而这么大的芯片主要就是用来进行深度学习训练的,而深度学习的训练是应用小变化的过程,模型的大小等因素让神经网络训练变得非常困难 。对于粗粒度计算,需要告诉互联才能进行训练,规模依旧有限且成本高昂 。所以Celebras Systems设计了专门为神经网络原语优化的核心,这种核心可编程、可以快速进行西数计算,而且具有高速互联能力 。Celebras Systems设计了非常灵活的内核,而且可以高效的处理张量运算 。
该公司表示,它已经解决了之前困扰晶圆片规模设计的问题,如成品率(它绕过缺陷),并发明了对抗热效应的封装 。
Cerebras已经筹集了超过2亿美元的资金,此前曾表示,他们的rack系统正在少数几个客户数据中心运行 。
Cambricon寒武纪
Cambricon是中国最早的人工智能芯片公司之一,但绝不是最后一家 。Cambricon是2016年由中国科学院的两名研究员创立 。
由于CPU和通用GPU (GPGPU)指令集在加速神经网络方面缺乏灵活性,他们开发了自己的指令集架构(ISA),这是一种集成了标量、向量、矩阵、逻辑、数据传输和控制指令的负载存储架构 。
Cambricon的第一款产品Cambricon-1A被用于数千万部智能手机,以及无人机和可穿戴设备等其他终端设备 。如今,第二代芯片包括云计算的两部分和边缘计算芯片——思源220 。这种边缘芯片的设计是为了填补该公司在边缘计算产品组合中的空白 。思远220标志着寒武纪实现了云、边、端的全方位立体覆盖 。MLU220是一款专门用于边缘计算应用场景的AI加速产品(边缘人工智能加速卡) 。产品集成4核ARM CORTEX A55,LPDDR4x内存及丰富的外围接口 。用户既可以使用MLU220作为AI加速协处理器,也可以使用其实现SOC方案 。
Cambricon(以及Horizon Robotics,见下文)目前是全球最有价值的芯片初创企业之一:该公司迄今已融资2亿美元,使其市值达到25亿美元左右 。

    推荐阅读