NNIE 是 Neural Network Inference Engine 的简称,是海思媒体 SoC 中专门针对神经网络特别是深度学习卷积神经网络进行加速处理的硬件单元,能够了解为 CNN 加速器,即 NPU 模块,支撑现有大部分的揭露网络。

海思供给的软件资源包首要包含 PC 端模型量化编译及仿真东西 + 板端模型推理 SDKNNIE 和 runtime。留意:NNIE 配套软件及东西链仅支撑以 Caffe 结构,运用其他结构的网络模型需要转化为 Caffe 结构下的模型。

一,PC端东西链

PC 端东西链资源首要包含以下部分:

  • nnie_mapper(tool/nnie/linux/mapper)目录:简称 mapper,完结 caffe 模型优化及编译的功用,将练习好的 caffe 模型编译成能在 Hi35xx 芯片或许在仿真库中能够运转的数据指令文件。
  • 仿真库(software\x64目录):PC 端仿真成果与芯片上运转成果完全一致,包含时间、带宽等。
  • 仿真 sample 工程:包含仿真 sample 源代码供开发者学习参考。
  • 模型包(software\data): 包含若干 sample 中用到的网络的 caffe 模型文件及对应的 NNIE mapper 配置文件、 wk 文件、图画文件等。
  • Windows 版 IDE(tool\nnie\windows目录)东西 RuyStudio:集成Windows版的 NNIE mapper 和仿真库,用户能够将仿真 Sample 工程导入运转、调试;IDE 还集成了代码编辑、编译、调试、履行、画框、相似度比对等功用,详细参考 “RuyiStudio东西运用攻略”章节。

NNIE 开发流程如下图所示。

海思 NNIE 芯片开发笔记

Caffe 结构上练习模型并运用 NNIEmapper 东西转化为 wk 模型等步骤都在 PC 端离线的。经过设置不同的形式,mapper 能够将 *.caffemodel 转化成在仿真器、仿真库或板端上可加载履行的数据指令文件。一般在开发前期,用户可运用仿真器对练习出来的模型进精度、性能、带宽进行开始评估,符合用户预期后再运用仿真库进行完整功用的仿真,最终将程序移植到板端。

二,SDK 结构解读

海思 3519 平台的 SDK 结构非常大,包含了很多硬件模块的代码,如 DPUSVPVIO 等模块,由于是做 DL 模型推理的使命,所以只需关注 ~/mpp/sample/SVP 目录下的 hirtnnie 目录代码。整个 SDK 结构首要目录解读如下:


mpp
├── include            SDK头文件
├── lib                SDK动态库和静态库文件
└── sample
    ├── common         sample公共程序和头文件
    └── svp            SVP模块参考程序
        ├── common     SVP模块公共程序和头文件
        └── nnie       NNIE模块参考程序
            ├── sample_nnie_main.c     NNIE参考程序main进口
            ├── sample_nnie_software   网络推理CPU履行部分,包含后处理
            ├── sample                 NNIE参考程序完结代码
            └── data                   测验数据目录
                ├── nnie_image         测验图片
                └── nnie_model         测验模型
        └── hirt       基于NNIE开发的上层runtime软件体系
            ├── common                 runtime公共程序和偶文件
            ├── include                runtime模块的头文件
            ├── src                    runtime示例程序
            └── plugins                自界说算子程序编译的动态库目录   
  • 海思 3519 硬件为了快速访问内存首地址或许跨行访问数据,在运用 DDR4 时,为提高访存效率,主张首地址运用 256 字节对齐,stride 运用 256 字节的奇数倍对齐。
  • 典型的 RGB\HSV\LAB 图画 Planar 格局存储,NNIE 默许以 B\G\RH\S\VL\A\B 次序按通道平面进行存储

2.1,NNIE运转流程

NNIE 示例程序文件非常大,多达 3000 多行,所有的 cv(computer vision) 功用函数都放在一个 c 代码文件中,没有按模块区分和用 cpp 进行 OOP 方法编程,这给咱们阅读代码带来一些困难。NNIE 模型运转作业流程如下,更多底层 api 的界说可参考源代码文件 sample/sample_nnie.csample_comm_nnie.c

海思 NNIE 芯片开发笔记

可知 NNIE 总的流程能够分为 5 部分:体系初始化、加载模型、填充数据、模型推理和网络后处理。nnie/hirt 代码中,如果输入图画是离线的图画文件(如 Planar 格局存储的二进制文件),能够运用 fopen 打开文件,然后 fread 函数读取数据;如果是 png/jpg 图片,则需要运用 opencvc api cvLoadImage 函数读取图画数据。

除了和体系相关都是一些操作,NNIE 运转的第一步便是加载模型 SAMPLE_COMM_SVP_NNIE_LoadModel(pcModelName, &s_stCnnModel),该函数是对底层 HI_MPI_SVP_NNIE_LoadModel 函数的封装,模型加载函数其作业流程图如下

海思 NNIE 芯片开发笔记

2.1.1,首要 API 阐明

NNIE 模块供给了创立使命和查询使命的基本接口。 用户依据需求调用相应的算子接口创立使命,指定是否堵塞等候成果,即 bInstant 类型,并记载该使命回来的 handle 号。依据回来的 handle 号,指定堵塞方法,能够查询到该使命的完结状态。在 NNIE 模型运转涉及到的首要 API 阐明如下:

  • HI_MPI_SVP_NNIE_LoadModel:从用户事先加载到 buf 中的模型中解分出网络模型。
  • HI_MPI_SVP_NNIE_GetTskBufSize:获取给定网络使命各段辅佐内存巨细。
  • HI_MPI_SVP_NNIE_Forward:多节点输入输出的 CNN 类型网络猜测。
  • HI_MPI_SVP_NNIE_ForwardWithBbox:多个节点 feature map 输入。
  • HI_MPI_SVP_NNIE_UnloadModel:卸载模型。
  • HI_MPI_SVP_NNIE_Query:查询使命是否完结。
  • HI_MPI_SVP_NNIE_AddTskBuf:记载 TskBuf 地址信息。
  • HI_MPI_SVP_NNIE_RemoveTskBuf:移除 TskBuf 地址信息。

2.1.2,NNIE重要结构体变量解析

海思的 《HiSVP API 参考文章》只要涉及到 NNIERuntime 相关的 API 接口参数和函数描绘,但是和 Sample(比如)相关的 API 描绘并没有,需要咱们前往 SDK 代码自行阅读和了解。

1,对于 NNIE 的模型运转过程来说,3CNN 模型参数结构体是非常重要的,模型运转流程中调用的底层 api 的输入参数首要便是这三个结构体,了解这 3 个结构体有助于咱们了解 SDK 代码。这些结构体的初始化代码如下所示。

static SAMPLE_SVP_NNIE_MODEL_S s_stCnnModel = {0}; // 初始化模型参数结构体为 {0}
static SAMPLE_SVP_NNIE_PARAM_S s_stCnnNnieParam = {0};  // 初始化 NNIE 履行参数结构体 为 {0}
static SAMPLE_SVP_NNIE_CNN_SOFTWARE_PARAM_S s_stCnnSoftwareParam = {0};  // 初始化 CNN 模型得到 TopN 参数的结构体

留意 SVP_NNIE_MODEL_S 结构体也是 SAMPLE_SVP_NNIE_PARAM_S 结构体的成员之一,海思 NNIE SDK 代码中,结构体之间经常是多层嵌套的,以 SAMPLE_SVP_NNIE_PARAM_S 结构体为例,其内部最多嵌套了 5 层结构体,比如要想获取 u32Height(表明设定输入图画的高度)变量的值,需知其界说的结构体跳转关系如下:

SAMPLE_SVP_NNIE_PARAM_S *pstNnieParam;
u32Height = pstNnieParam-->astSegData[u32SegIdx].astSrc[u32NodeIdx].unShape.stWhc.u32Height;

SAMPLE_SVP_NNIE_PARAM_S NNIE 履行参数结构体代码界说如下。它包含了 SVP_NNIE_MODEL_SSVP_MEM_INFO_SSAMPLE_SVP_NNIE_SEG_DATA_S 等结构体成员。

/*NNIE Execution parameters */
typedef struct hiSAMPLE_SVP_NNIE_PARAM_S
{
    SVP_NNIE_MODEL_S*    pstModel;  // 界说 NNIE 模型结构体
    HI_U32 u32TmpBufSize;
    HI_U32 au32TaskBufSize[SVP_NNIE_MAX_NET_SEG_NUM];
    SVP_MEM_INFO_S      stTaskBuf;
    SVP_MEM_INFO_S      stTmpBuf;
    SVP_MEM_INFO_S      stStepBuf;  //store Lstm step info
    SAMPLE_SVP_NNIE_SEG_DATA_S astSegData[SVP_NNIE_MAX_NET_SEG_NUM];  //each seg's input and output blob
    SVP_NNIE_FORWARD_CTRL_S astForwardCtrl[SVP_NNIE_MAX_NET_SEG_NUM];
    SVP_NNIE_FORWARD_WITHBBOX_CTRL_S astForwardWithBboxCtrl[SVP_NNIE_MAX_NET_SEG_NUM];
}SAMPLE_SVP_NNIE_PARAM_S;

SVP_NNIE_MODEL_S 结构体界说 NNIE 模型参数信息,其结构体代码如下:

/* NNIE model, 界说 NNIE 模型参数信息结构体 */
typedef struct hiSVP_NNIE_MODEL_S
{
    SVP_NNIE_RUN_MODE_E     enRunMode;  // 网络模型运转形式
    HI_U32                  u32TmpBufSize;  /*temp buffer size,辅佐内存 tmpBuf 巨细*/
    HI_U32                  u32NetSegNum;  // 网络模型中 NNIE 履行的网络分段数,取值规模:[1, 8]
    // SVP_NNIE_MAX_NET_SEG_NUM    NNIE将网切成的最大段数:8
    SVP_NNIE_SEG_S          astSeg[SVP_NNIE_MAX_NET_SEG_NUM];  // 网络在 NNIE 引擎上履行的段信息。
    SVP_NNIE_ROIPOOL_INFO_S astRoiInfo[SVP_NNIE_MAX_ROI_LAYER_NUM];  /*ROIPooling info, 网络模型中 RoiPooling 以及 PsRoiPooling 的信息数组 */
    SVP_MEM_INFO_S          stBase;  // 网络其他信息
}SVP_NNIE_MODEL_S;  // SVP_NNIE_MODEL_S 等于 struct hiSVP_NNIE_MODEL_S

2,除了和模型参数相关的结构体,网络层的 Blob 数据结构体也很重要。NNIE 的网络层输入输出数据 (tensor)用 BLOB 表明,依据不同的数据类型,BLOB 也有不同的内存排布类型,部分 BLOB 解说如下所示。

海思 NNIE 芯片开发笔记

数据类型和数据结构的界说代码在 ~/mpp/include/hi_comm_svp.h 文件中,其中 BLOB 结构体 SVP_BLOB_S 界说如下:

/* 界说多个接连存放的 blob 信息。*/
typedef struct hiSVP_BLOB_S
{
    SVP_BLOB_TYPE_E enType;     /*Blob 类型, enType 取值规模[SVP_BLOB_TYPE_S32, SVP_BLOB_TYPE_BUTT)。*/
    HI_U32 u32Stride;           /*Stride, a line bytes num,Blob 中单行数据对齐后的字节数*/
    HI_U64 u64VirAddr;          /*virtual addr*/
    HI_U64 u64PhyAddr;          /*physical addr*/
    // 表明接连内存块的数目,若一帧数据对应一个块,则表明 blob 中有 u32Num 帧
    HI_U32 u32Num;         /*N: frame num or sequence num,correspond to caffe blob's n*/
    union
    {
        struct
        {
            HI_U32 u32Width;    /*W: frame width, correspond to caffe blob's w*/
            HI_U32 u32Height;   /*H: frame height, correspond to caffe blob's h*/
            HI_U32 u32Chn;      /*C: frame channel,correspond to caffe blob's c*/
        }stWhc;
        struct
        {
            HI_U32 u32Dim;          /*D: vecotr dimension, 向量的长度*/
            HI_U64 u64VirAddrStep;  /*T: virtual adress of time steps array in each sequence,数组地址,数组元素表明每段序列有多少个向量*/
        }stSeq;
    }unShape;
}SVP_BLOB_S;

BLOB 中存储了 Tensor 数据的首物理和虚拟内存地址,宽、高、通道数的维度信息,以及接连内存块数目(帧数)信息。

2.1.3,重要概念

  • 网络分段:对于 NNIE 不支撑的某些网络层节点,编译器支撑用户对网络进行分段,不支撑的部分编译器不会编译,由用户自己用 CPU 完结。
  • 句柄(handle):用户在调用 DSP 处理使命时,体系会为每个使命分配一个 handle,用于标识不同的使命。
  • 查询(query):用户依据体系回来的 handle,调用 HI_MPI_SVP_DSP_Query 能够查询对应算子使命是否完结。
  • 及时刷 cache:NNIE 硬件只能从 DDR 中获取数据。为避免 NNIE 输入输出数据不被 CPU cahce 干扰,用户需要调用HI_MPI_SYS_MmFlushCache` 接口刷 cache。
  • 跨度(stride):一行有效数据的 byte 数目 + 为硬件快速跨越到下一行补齐的一些无效 byte 数目,如下图所示。

2.2,runtime作业流程

runtime 模块是基于 nnie 底层 api 做的上层封装,使得模型运转逻辑更明晰直观,代码上手难度也更低。其作业流程图如下图所示。

海思 NNIE 芯片开发笔记

三,参考资料

  1. 《HiSVP 开发攻略》
  2. 《HiSVP API 参考》

“本文正在参加人工智能创作者扶持计划 ”