乐鱼官方网站

网站首页

产品中心

乐鱼 乐鱼官方 乐鱼官方网站 乐鱼电子官方网站

新闻中心

关于乐鱼官方网站

公司概况 核心优势 核心团队 发展历程

联系乐鱼官方网站

官方微信 官方微博
乐鱼官方网站 > 新闻中心

如何准确定义 AI 芯片?

发布时间:2024-01-25 05:56浏览次数: 来源于:网络

  AI芯片顾名思义就是可以进行人工智能算法计算的芯片,一般是用来加速特定人工智能算法。这些人工智能算法目前一般认为是是深度学习算法,也可以包括用于机器人的一些机器视觉和机器学习算法。

  从历史上来看上个世纪九十年代,就有DSP用来做(浅层)神经网络加速器来做字符识别,也有基于FGPA的神经网络加速芯片。这一波的AI芯片主要是有深度学习和GPU的普及带来。相比于CPU,GPU更适合做并行计算,可以用来对深度学习算法进行加速。

  (1)GPU流派:目前市场上基本是英伟达一家独大。GPU做加速主要的问题就是功耗比较高。

  (2)FPGA流派:FPGA 全称“现场可编程门阵列”(Field Programmable GateArray),其基本原理是在 FPGA 芯片内集成大量的数字电路基本门电路以及存储器,而用户可以通过更新FPGA 配置文件,来定义这些门电路以及存储器之间的连线。FPGA优点是相对GPU功耗低。目前国内的AI芯片公司如深鉴科技就是基于FPGA的解决方案。

  (3)ASIC流派:ASIC的全称是专用集成电路 (Application-Specific Integrated Circuit)。功耗更低,缺点是电路设计需要定制,相对开发周期长、开发周期长。目前国内的AI芯片公司寒武纪采用了这种架构。

  (4)类脑流派:目前IBM的TrueNorth基于这种结构,模拟人脑神经的计算机制,国内对应的公司是西井科技。

  从算法上来分,根据机器学习算法步骤,可分为训练(training)和推断(inference)两个环节:

  (1)训练环境通常需要通过大量的数据输入,训练出一个复杂的深度神经网络模型。训练过程由于涉及海量的训练数据和复杂的深度神经网络结构,需要的计算规模非常庞大,通常需要GPU集群训练几天甚至数周的时间,在训练环节GPU目前暂时扮演着难以轻易替代的角色。

  (2)推断(inference)环节指利用训练好的模型如何准确定义 AI 芯片?,使用新的数据去“推断”出各种结论,如视频监控设备通过后台的深度神经网络模型,判断一张抓拍到的人脸是否属于黑名单。虽然推断环节的计算量相比训练环节少,但仍然涉及大量的矩阵运算。在推断环节,除了使用CPU或GPU进行运算外,FPGA以及ASIC均能发挥重大作用。

  (1)服务器端负责AI算法的芯片走的是超级计算机的路子,一方面要支持尽可能多的网络结构以保证算法的正确率和泛化能力;另一方面必须支持高精度浮点数运算,峰值性能至少要达到Tflops(每秒执行10^12次浮点数运算)级别,所以功耗非常大;而且为了能够提升性能必须支持阵列式结构(即可以把多块芯片组成一个计算阵列以加速运算)。

  (2)移动端(手机、智能家居、无人车等)的AI芯片在设计思路上有着本质的区别。首先,必须保证功耗控制在一定范围内,换言之,必须保证很高的计算能效;为了达到这个目标,移动端AI芯片的性能必然有所损失,允许一些计算精度损失,因此可以使用一些定点数运算以及网络压缩的办法来加速运算。

下一篇:AI人工智能芯片是什么doc
上一篇:什么是人工智能芯片?人们需要知道的一切

咨询我们

输入您的疑问及需求发送邮箱给我们