Processing

Please wait...

Settings

Settings

Goto Application

1. WO2021109699 - ARTIFICIAL INTELLIGENCE ACCELERATOR, DEVICE, CHIP AND DATA PROCESSING METHOD

Publication Number WO/2021/109699
Publication Date 10.06.2021
International Application No. PCT/CN2020/118809
International Filing Date 29.09.2020
IPC
G06N 3/063 2006.01
GPHYSICS
06COMPUTING; CALCULATING OR COUNTING
NCOMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
3Computer systems based on biological models
02using neural network models
06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
063using electronic means
CPC
G06N 3/063
GPHYSICS
06COMPUTING; CALCULATING; COUNTING
NCOMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
3Computer systems based on biological models
02using neural network models
06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
063using electronic means
Applicants
  • 腾讯科技(深圳)有限公司 TENCENT TECHNOLOGY (SHENZHEN) COMPANY LIMITED [CN]/[CN]
Inventors
  • 孟玉 MENG, Yu
Agents
  • 北京德琦知识产权代理有限公司 DEQI INTELLECTUAL PROPERTY LAW CORPORATION
Priority Data
201911237525.604.12.2019CN
Publication Language Chinese (ZH)
Filing Language Chinese (ZH)
Designated States
Title
(EN) ARTIFICIAL INTELLIGENCE ACCELERATOR, DEVICE, CHIP AND DATA PROCESSING METHOD
(FR) ACCÉLÉRATEUR D'INTELLIGENCE ARTIFICIELLE, DISPOSITIF, PUCE ET PROCÉDÉ DE TRAITEMENT DE DONNÉES
(ZH) 人工智能加速器、设备、芯片及数据处理方法
Abstract
(EN)
The embodiments of the present application disclose an artificial intelligence accelerator, a device, a chip and a data processing method. The artificial intelligence accelerator has the capability of using a first number of operation functions to respectively process, in parallel, data of which the depth is a second number. The artificial intelligence accelerator comprises a control unit, a computing engine, a grouping control unit and a grouping buffer unit. The grouping buffer unit is provided with a plurality of output buffers according to the first number. The control unit is used to parse a processing instruction of a target network layer in a neural network model, to obtain a concurrent instruction. The computing engine is used to perform, according to the concurrent instruction, parallel processing on target input data blocks in an input data set of the target network layer, to obtain target output data corresponding to the target input data blocks. The grouping control unit is used to group the target output data into at least one output buffer of the grouping buffer unit in a grouping manner.
(FR)
Les modes de réalisation de la présente demande divulguent un accélérateur d'intelligence artificielle, un dispositif, une puce et un procédé de traitement de données. L'accélérateur d'intelligence artificielle a la capacité d'utiliser un premier nombre de fonctions d'exploitation afin de traiter respectivement, en parallèle, des données dont la profondeur est un second nombre. L'accélérateur d'intelligence artificielle comprend une unité de commande, un moteur de calcul, une unité de commande de groupage et une unité de tampons de groupage. L'unité de tampons de groupage est pourvue d'une pluralité de tampons de sortie en fonction du premier nombre. L'unité de commande est destinée à analyser une instruction de traitement d'une couche de réseau cible dans un modèle de réseau neuronal, de manière à obtenir une instruction concurrente. Le moteur de calcul est destiné à effectuer, selon l'instruction concurrente, un traitement parallèle sur des blocs de données d'entrée cibles dans un ensemble de données d'entrée de la couche de réseau cible, de manière à obtenir des données de sortie cibles correspondant aux blocs de données d'entrée cibles. L'unité de commande de groupage est destinée à grouper les données de sortie cibles dans au moins un tampon de sortie de l'unité de tampons de groupage de façon groupée.
(ZH)
本申请实施例公开了一种人工智能加速器、设备、芯片及数据处理方法;该人工智能加速器具有使用第一数目个运算函数并行地分别对深度为第二数目的数据进行处理的能力;该人工智能加速器包括控制单元、计算引擎、分组控制单元及分组缓存单元;分组缓存单元按照第一数目设有多个输出缓存;其中,控制单元,用于解析神经网络模型中的目标网络层的处理指令,得到并发指令;计算引擎,用于按照并发指令对目标网络层的输入数据集合中的目标输入数据块执行并行处理,得到目标输入数据块对应的目标输出数据;分组控制单元,用于将目标输出数据分组存储至分组缓存单元的至少一个输出缓存中。
Also published as
Latest bibliographic data on file with the International Bureau