此文档面向零基础用户详细介绍如何快速在计算机上使用 RKNN-Toolkit2 完成模型转换,并通过 RKNPU2 部署到 Rockchip 开发板上。本文所用示例已集成到 RKNN Model Zoo 中。 支持的平台:RK3562、RK3566系列、RK3568系列、RK3576系列、RK3588系列
开发板:BPI-W3, BPI-M7,BPI-AIM7, BPI-M5 Pro, BPI-CM5 Pro, BPI-R2 ProOS:Debian11/12目的:本文介绍如何使用Rockchip npu sdk。作为瑞芯微8nm高性能AIOT平台,RK3576/RK3588 NPU性能可谓十分强大,6TOPS设计能够实现高效的神经网络推理计算。这使得RK3576/RK3588在图像识别、语音识别、自然语言处理等人工智能领域有着极高的性能表现。
此外,RK3576/RK3588 的NPU还支持多种学习框架,包括TensorFlow,Pytorch、Caffe、MXNet等在人工智能开发中流行的深度学习框架,能够为开发者提供丰富的工具和库,使他们能够方便地进行模型训练和推理,可轻松应对各种大数据运算场景。
1. RK3576/RK3588 NPU典型应用计算机视觉(Computer Vision):NPU可用于图像识别、目标检测、人脸识别等任务。在安防监控、自动驾驶、医疗影像分析等领域中有着广泛的应用。
自然语言处理(Natural Language Processing,NLP):NPU可加速文本分类、情感分析、机器翻译等任务,使得处理大规模文本数据变得更高效。
语音识别与处理(Speech Recognition and Processing):在语音识别、语音合成等方面,NPU可以提高处理速度和准确性,应用于智能语音助手、语音交互系统等场景。
智能家居与物联网(IoT):NPU的低功耗特性使其适用于智能家居设备、智能监控摄像头、智能穿戴设备等物联网应用,从而实现设备的智能化和自动化。
医疗健康:在医学影像分析、疾病诊断、基因组学等领域,NPU可以加速大规模数据的处理和分析,帮助医疗工作者更准确地诊断疾病和制定治疗方案。
智能交通:在智能交通系统中,NPU可用于车辆识别、交通流量监控、智能交通信号灯控制等任务,提升交通系统的效率和安全性。
2. Rockchip NPU SDK简介rockchip的npu sdk分为两个部分,PC端使用的是rknn-toolkit2,可以在PC端进行模型转换,推理以及性能评估。具体来说是把主流的模型如Caffe、TensorFlow、TensorFlow Lite、ONNX、DarkNet、PyTorch 等转换为RKNN模型,并可以在PC端使用这个RKNN模型进行推理仿真,计算时间和内存开销。板端还有一部分,就是rknn runtime环境,包含一组C API库以及与NPU进行通信的驱动模块,可执行程序等。
RKNN软件栈可以帮助用户快速将AI模型部署到瑞芯微芯片上。整体框架如下:
为了使用 RKNPU,用户需要首先在计算机上运行 RKNN-Toolkit2 工具,将训练好的模型转换为 RKNN 格式的模型,然后使用 RKNN C API 或 Python API 在开发板上进行推理。
RKNN-Toolkit2是一款软件开发套件,供用户在PC和瑞芯微NPU平台上进行模型转换、推理和性能评估。RKNN-Toolkit-Lite2为瑞芯微NPU平台提供Python编程接口,帮助用户部署RKNN模型,加速AI应用落地。RKNN Runtime为Rockchip NPU平台提供C/C++编程接口,帮助用户部署RKNN模型,加速AI应用的落地。RKNPU内核驱动负责与NPU硬件交互。它已经开源,可以在Rockchip内核代码中找到。提示
RKNPU2 SDK v2.0.0-beta (for RK3576/RK3562/RK3566/RK3568/RK3588/RV1103/RV1106) https://github.com/airockchip/rknn-toolkit2
Model zoo: https://github.com/airockchip/rknn_model_zoo
docs: https://github.com/airockchip/rknn-toolkit2/tree/master/doc
3. 准备开发环境本章介绍如何在计算机中直接安装开发环境,后续的示例程序运行过程也将以直接安装为例说明。如果 需要在 Docker 环境中运行示例程序,可以参考第 5 章中的内容准备开发环境。 本章分为四个部分:
下载 RKNN 相关仓库安装RKNN-Toolkit2 环境安装编译工具安装板端 RKNPU2 环境3.1 下载 RKNN 相关仓库建议新建一个目录用来存放 RKNN 仓库,例如新建一个名称为 Projects 的文件夹,并将 RKNN-Toolkit2 和 RKNN Model Zoo 仓库存放至该目录下,参考命令如下:
# 新建 Projects 文件夹mkdir Projects# 进入该目录cd Projects# 下载 RKNN-Toolkit2 仓库git clone https://github.com/airockchip/rknn-toolkit2.git --depth 1# 下载 RKNN Model Zoo 仓库git clone https://github.com/airockchip/rknn_model_zoo.git --depth 1# 注意:# 1.参数 --depth 1 表示只克隆最近一次 commit# 2.如果遇到 git clone 失败的情况,也可以直接在 github 中下载压缩包到本地,然后解压至该目录3.2 安装 RKNN-Toolkit2 环境3.2.1 安装 Python如果系统中没有安装 Python 3.8(建议版本),或者同时有多个版本的 Python 环境,建议使用Miniforge Conda 创建新的 Python 3.8 环境。
3.2.1.1 安装 Miniforge Conda在计算机的终端窗口中执行以下命令,检查是否安装Miniforge Conda,若已安装则可省略此节步骤。
conda -V# 参考输出信息:conda 23.3.1 ,表示 Miniforge conda 版本为 23.3.1# 如果提示 conda: command not found,则表示未安装 Miniforge如果没有安装 Miniforge Conda,可以通过下面的链接下载 Miniforge Conda 安装包:
wget -c https://github.com/conda-forge/miniforge/releases/latest/download/Miniforge3-Linux-x86_64.sh然后通过以下命令安装 Miniforge Conda:
// 安装过程全部输入yeschmod 777 Miniforge3-Linux-x86_64.shbash Miniforge3-Linux-x86_64.sh3.2.1.2 使用 Miniforge Conda 创建 Python 环境在计算机的终端窗口中,执行以下命令进入 Conda base 环境:
source ~/miniforge3/bin/activate # Miniforge 安装的目录# 成功后,命令行提示符会变成以下形式:# (base) xxx@xxx:~$通过以下命令创建名称为 toolkit2 的 Python 3.8 环境:
conda create -n toolkit2 python=3.8激活 toolkit2 环境,后续将在此环境中安装 RKNN-Toolkit2:
conda activate toolkit2# 成功后,命令行提示符会变成以下形式:# (toolkit2) xxx@xxx:~$3.2.2 安装依赖库和 RKNN-Toolkit2激活 conda toolkit2 环境后,进入 rknn-toolkit2 目录,根据 requirements_cpxx.txt 安装依赖库,并通过 wheel 包安装 RKNN-Toolkit2,参考命令如下:
# 进入 rknn-toolkit2 目录cd Projects/rknn-toolkit2/rknn-toolkit2# 请根据不同的 python 版本,选择不同的 requirements 文件# 例如 python3.8 对应 requirements_cp38.txtpip install -r packages/requirements_cpxx.txt# 安装 RKNN-Toolkit2# 请根据不同的 python 版本及处理器架构,选择不同的 wheel 安装包文件:# 其中 x.x.x 是 RKNN-Toolkit2 版本号,cpxx 是 python 版本号,请根据实际数值进行替换pip install packages/rknn_toolkit2--x.x.x-cpxx-cpxx-manylinux_2_17_x86_64.manylinux2014_x86_64.whl3.2.3 验证是否安装成功执行以下命令,若没有报错,则代表 RKNN-Toolkit2 环境安装成功。
# 进入 Python 交互模式python# 导入 RKNN 类from rknn.api import RKNN3.3 安装编译工具3.3.1 安装 CMake在计算机的终端中,执行以下命令:
# 更新包列表sudo apt update# 安装 cmakesudo apt install cmake3.3.2 安装编译器为了方便描述,后续文档使用板端来表示开发板端。
确认板端系统类型是安卓还是linux3.3.2.2 Android 系统开发板安装 NDK注:该章节适用于 Android 系统的开发板,如果板端是 Linux 系统,请忽略此章节
NDK 下载地址(建议下载r19c 版本):https://dl.google.com/android/repository/android-ndk-r19c-linux-x86_64.zip解压软件包建议将 NDK 软件包解压到 Projects 的文件夹中,位置如下:Projects├── rknn-toolkit2├── rknn_model_zoo└── android-ndk-r19c # 此路径在后面编译 RKNN C Demo 时会用到此时,NDK 编译器的路径就是 Projects/android-ndk-r19c
3.3.2.3 Linux 系统开发板安装 GCC 交叉编译器注:该章节适用于 Linux 系统的开发板,如果板端是 Android 系统,请忽略此章节。
GCC 下载地址板端为 64 位系统:https://releases.linaro.org/components/toolchain/binaries/6.3-2017.05/aarch64-linux-gnu/gcc-linaro-6.3.1-2017.05-x86_64_aarch64-linux-gnu.tar.xz板端为 32 位系统:https://releases.linaro.org/components/toolchain/binaries/6.3-2017.05/arm-linuxgnueabihf/gcc-linaro-6.3.1-2017.05-x86_64_arm-linux-gnueabihf.tar.xz解压软件包 建议将 GCC 软件包解压到 Projects 的文件夹中。以板端为 64 位系统的 GCC 软件包为例,存放位置 如下:Projects├── rknn-toolkit2├── rknn_model_zoo└── gcc-linaro-6.3.1-2017.05-x86_64_aarch64-linux-gnu # 此路径在后面编译RKNN C Demo时会用到此时, GCC 编译器的路径是 Projects/gcc-linaro-6.3.1-2017.05-x86_64_aarch64-linux-gnu/bin/aarch64-linux-gnu
3.4 安装板端 RKNPU2 环境3.4.1 确认 RKNPU2 驱动版本可以在板端执行以下命令查询 RKNPU2 驱动版本:
如下图所示,当前 RKNPU2 驱动版本为 0.9.6。
armsom@armsom-sige5:~$ dmesg | grep -i rknpu[ 3.805859] RKNPU 27700000.npu: Adding to iommu group 0[ 3.806273] RKNPU 27700000.npu: RKNPU: rknpu iommu is enabled, using iommu mode[ 3.806802] RKNPU 27700000.npu: can't request region for resource [mem 0x27700000-0x27707fff][ 3.806868] RKNPU 27700000.npu: can't request region for resource [mem 0x27708000-0x2770ffff][ 3.807834] [drm] Initialized rknpu 0.9.6 20240322 for 27700000.npu on minor 1[ 3.809765] RKNPU 27700000.npu: bin=0[ 3.810082] RKNPU 27700000.npu: leakage=4[ 3.810155] debugfs: Directory '27700000.npu-rknpu' with parent 'vdd_npu_s0' already present![ 3.811976] RKNPU 27700000.npu: pvtm=821[ 3.812502] RKNPU 27700000.npu: pvtm-volt-sel=1[ 3.812605] debugfs: Directory '27700000.npu-rknpu' with parent 'vdd_npu_s0' already present![ 3.813765] RKNPU 27700000.npu: avs=0[ 3.814021] RKNPU 27700000.npu: EM: OPP:600000 is inefficient[ 3.814034] RKNPU 27700000.npu: EM: OPP:500000 is inefficient[ 3.814277] RKNPU 27700000.npu: EM: created perf domain[ 3.814912] RKNPU 27700000.npu: l=10000 h=2147483647 hyst=5000 l_limit=0 h_limit=0 h_table=0[ 3.816379] RKNPU 27700000.npu: RKNPU: nbuf region: [0x000000003fe80000, 0x000000003ff80000), nbuf size: 0x100000Rockchip 开发板的官方固件均自带 RKNPU2 驱动。若以上命令查询不到 NPU 驱动版本,则可能使用的是第三方固件,其中可能没有安装NPU驱动。如果有固件源码,可以在 kernel config 中将CONFIG_ROCKCHIP_RKNPU 选项的值改成 y 以集成 NPU 驱动,然后重新编译内核驱动并烧录。建议RKNPU2 驱动版本 >= 0.9.2。
3.4.2 检查 RKNPU2 环境是否安装
RKNN-Toolkit2 的连板调试功能要求板端已安装 RKNPU2 环境,并且启动 rknn_server 服务。以下是 RKNPU2 环境中的两个基本概念:
RKNN Server:一个运行在开发板上的后台代理服务。该服务的主要功能是调用板端 Runtime 对应的接口处理计算机通过USB传输过来的数据,并将处理结果返回给计算机。RKNPU2 Runtime 库(librknnrt.so):主要职责是负责在系统中加载 RKNN 模型,并通过调用专用的神经处理单元(NPU)执行 RKNN 模型的推理操作。如果板端没有安装 RKNN Server 和 Runtime 库,或者 RKNN Server 和 Runtime 库的版本不一致,都需要重新安装 RKNPU2 环境。(注意:1. 若使用动态维度输入的 RKNN 模型,则要求 RKNN Server 和 Runtime 库版本 >= 1.5.0。2. 要保证 RKNN Server 、Runtime 库的版本、RKNN-Toolkit2 的版本是一致的,建议都安装最新的版本)通常情况下,开发板默认已经安装版本一致的 RKNPU2 环境,可以通过下面命令确认(如果没有安装 RKNPU2 环境或者版本不一致,请按照下一节中的步骤来安装/更新 RKNPU2 环境):
板端为 Android 系统检查 RKNPU2 环境是否安装, 如果能够启动 rknn_server 服务,则代表板端已经安装 RKNPU2 环境。# 进入板端adb shell# 启动 rknn_serversusetenforce 0/vendor/bin/rknn_server &如果出现以下输出信息,则代表启动 rknn_server 服务成功,即已经安装 RKNPU2 环境。
start rknn server, version: x.x.x检查版本是否一致
# 查询rknn_server版本strings /vendor/bin/rknn_server | grep -i "rknn_server version"# 查询librknnrt.so库版本# 64位系统strings /vendor/lib64/librknnrt.so | grep -i "librknnrt version"# 32位系统strings /vendor/lib/librknnrt.so | grep -i "librknnrt version"如果出现以下输出信息,则代表rknn_server版本为 x.x.x,librknnrt.so的版本为 x.x.x。
rknn_server version: x.x.xlibrknnrt version: x.x.x板端为 Linux 系统 检查 RKNPU2 环境是否安装, 如果能够启动 rknn_server 服务,则代表板端已经安装 RKNPU2 环境。# 进入板端adb shell# 启动 rknn_serverrestart_rknn.sh如果出现以下输出信息,则代表启动rknn_server服务成功,即已经安装RKNPU2环境。
start rknn server, version: x.x.x检查版本是否一致
# 查询rknn_server版本strings /usr/bin/rknn_server | grep -i "rknn_server version"# 查询librknnrt.so库版本strings /usr/lib/librknnrt.so | grep -i "librknnrt version"3.4.3 安装/更新 RKNPU2 环境不同的板端系统需要安装不同的 RKNPU2 环境,下面分别介绍各自的安装方法。 注:如果已经安装版本一致 RKNPU2 环境,则此节内容可以跳过。
板端为 Android 系统 进入 rknpu2 目录,使用 adb 工具将相应的 rknn_server 和 librknnrt.so 推送至板端,然后启动 rknn_server, 参考命令如下:# 进入 rknpu2 目录cd Projects/rknn-toolkit2/rknpu2# 切换到 root 用户权限adb root# 挂载文件系统为可读写模式adb remount# 推送 rknn_server# 注:在 64 位 Android 系统中,BOARD_ARCH 对应 arm64 目录;在 32 位系统中,对应 arm 目录。adb push runtime/Android/rknn_server/${BOARD_ARCH}/rknn_server /vendor/bin/# 推送 librknnrt.so# 64位系统adb push runtime/Android/librknn_api/arm64-v8a/librknnrt.so /vendor/lib64/# 32位系统adb push runtime/Android/librknn_api/armeabi-v7a/librknnrt.so /vendor/lib/# 进入板端adb shell# 赋予可执行权限chmod +x /vendor/bin/rknn_server# 重启 rknn_server 服务susetenforce 0/vendor/bin/rknn_server &板端为 Linux 系统进入 rknpu2 目录,使用 adb 工具将相应的 rknn_server 和 librknnrt.so 推送至板端,然后启动 rknn_server, 参考命令如下:
# 进入 rknpu2 目录cd Projects/rknn-toolkit2/rknpu2# 推送 rknn_server 到板端# 注:在64位Linux系统中,BOARD_ARCH对应aarch64目录,在32位系统,对应armhf目录。adb push runtime/Linux/rknn_server/${BOARD_ARCH}/usr/bin/* /usr/bin# 推送 librknnrt.soadb push runtime/Linux/librknn_api/${BOARD_ARCH}/librknnrt.so /usr/lib# 进入板端adb shell# 赋予可执行权限chmod +x /usr/bin/rknn_serverchmod +x /usr/bin/start_rknn.shchmod +x /usr/bin/restart_rknn.sh# 重启 rknn_server 服务restart_rknn.sh4.运行示例程序本章将介绍如何快速在开发板上运行示例程序,内容分为三个部分:
RKNN Model Zoo介绍RKNN Python Demo 使用方法RKNN C Demo 使用方法4.1 RKNN Model Zoo 介绍RKNN Model Zoo 提供了示例代码,旨在帮助用户快速在 Rockchip 的开发板上运行各种常用模型,整个 工程的目录结构如下:
rknn_model_zoo├── 3rdparty # 第三方库├── datasets # 数据集├── examples # 示例代码├── utils # 常用方法,如文件操作,画图等├── build-android.sh # 用于目标为 Android 系统开发板的编译脚本├── build-linux.sh # 用于目标为Linux 系统开发板的编译脚本└── ...其中,examples 目录包括了一些常用模型的示例,例如 MobileNet 和 YOLO 等。每个模型示例提供了Python 和 C/C++ 两个版本的示例代码(为了方便描述,后续用 RKNN Python Demo 和 RKNN C Demo 来表示)。以 yolov8 模型为例,其目录结构如下:
rknn_model_zoorknn_model_zoo├── examples│ └── yolov8│ ├── cpp # C/C++ 版本的示例代码│ ├── model # 模型、测试图片等文件│ ├── python # 模型转换脚本和Python版本的示例代码│ └── README.md└── ...4.2 RKNN Python Demo 使用方法下面以 yolov8 模型为例,介绍 RKNN Python Demo 的使用方法。 注:不同的 RKNN Python Demo 用法存在差异,请按照各自目录下 README.md 中的步骤运行。
4.2.1 准备模型进入 rknn_model_zoo/examples/yolov8/model 目录,运行 download_model.sh 脚本,该脚本将下载一个可用的yolov8 ONNX 模型,并存放在当前 model 目录下,参考命令如下:
# 进入 rknn_model_zoo/examples/yolov8/model 目录cd Projects/rknn_model_zoo/examples/yolov8/model# 运行 download_model.sh 脚本,下载 yolov8 onnx 模型# 例如,下载好的 onnx 模型存放路径为 model/yolov8s_relu.onnx./download_model.sh4.2.2 模型转换进入 rknn_model_zoo/examples/yolov8/python 目录,运行 convert.py 脚本,该脚本将原始的 ONNX 模型转成RKNN 模型,参考命令如下:
# 进入 rknn_model_zoo/examples/yolov8/python 目录cd Projects/rknn_model_zoo/examples/yolov8/python# 运行 convert.py 脚本,将原始的 ONNX 模型转成 RKNN 模型# 用法: python convert.py model_path [rk3566|rk3576|rk3588|rk3562] [i8/fp] [output_path]python convert.py ../model/yolov8n.onnx rk3576 i8 ../model/yolov8n_relu.rknn4.2.3 运行 RKNN Python Demo进入 rknn_model_zoo/examples/yolov8/python 目录,运行 yolov8.py 脚本,便可通过连板调试的方式在板端运 行 yolov8 模型,参考命令如下:
# 进入 rknn_model_zoo/examples/yolov8/python 目录cd Projects/rknn_model_zoo/examples/yolov8/python# 运行 yolov8.py 脚本,在板端运行 yolov8 模型# 用法: python yolov8.py --model_path {rknn_model} --target {target_platform} --img_show# 其中,如果带上 --img_show 参数,则会显示结果图片# 注:这里以 rk3588 平台为例,如果是其他开发板,则需要修改命令中的平台类型python yolov8.py --model_path ../model/yolov8s_relu.rknn --target rk3588 --img_show# 如果想先在计算机端运行原始的 onnx 模型,可以参考以下命令# 用法: python yolov8.py --model_path {onnx_model} --img_showpython yolov8.py --model_path ../model/yolov8s_relu.onnx --img_showRK3576/RK3588 NPU使用案例分享导出rknn模型步骤
请参考 https://github.com/airockchip/rknn_model_zoo/tree/main/models/CV/object_detection/yolo
注意事项使用rknn-toolkit2版本大于等于1.4.0。切换成自己训练的模型时,请注意对齐anchor等后处理参数,否则会导致后处理解析出错。官网和rk预训练模型都是检测80类的目标,如果自己训练的模型,需要更改include/postprocess.h中的OBJ_CLASS_NUM以及NMS_THRESH,BOX_THRESH后处理参数。demo需要librga.so的支持,编译使用请参考 https://github.com/airockchip/librga由于硬件限制,该demo的模型默认把 yolov8 模型的后处理部分,移至cpu实现。本demo附带的模型均使用relu为激活函数,相比silu激活函数精度略微下降,性能大幅上升。Android Demo编译首先导入ANDROID_NDK_PATH,例如export ANDROID_NDK_PATH=~/opts/ndk/android-ndk-r18b,然后执行如下命令:
./build-android.sh -t <target> -a <arch> [-b <build_type>]# 例如: ./build-android.sh -t rk3568 -a arm64-v8a -b Release推送执行文件到板子连接板子的usb口到PC,将整个demo目录到 /data:
adb rootadb remountadb push install/rknn_yolov8_demo /data/运行adb shellcd /data/rknn_yolov8_demo/export LD_LIBRARY_PATH=./lib./rknn_yolov8_demo model/<TARGET_PLATFORM>/yolov8s-640-640.rknn model/bus.jpgAarch64 Linux Demo编译首先导入GCC_COMPILER,例如export GCC_COMPILER=~/opt/gcc-linaro-7.5.0-2019.12-x86_64_aarch64-linux-gnu/bin/aarch64-linux-gnu ,然后执行如下命令:
./build-linux.sh -t <target> -a <arch> -b <build_type>]# 例如: ./build-linux.sh -t rk3588 -a aarch64 -b Release推送执行文件到板子将 install/rknn_yolov8_demo_Linux 拷贝到板子的/userdata/目录.
如果使用rockchip的EVB板子,可以使用adb将文件推到板子上:adb push install/rknn_yolov8_demo_Linux /userdata/如果使用其他板子,可以使用scp等方式将install/rknn_yolov8_demo_Linux拷贝到板子的/userdata/目录运行adb shellcd /userdata/rknn_yolov8_demo_Linux/export LD_LIBRARY_PATH=./lib./rknn_yolov8_demo model/<TARGET_PLATFORM>/yolov8s-640-640.rknn model/bus.jpgNote: Try searching the location of librga.so and add it to LD_LIBRARY_PATH if the librga.so is not found on the lib folder. Using the following commands to add to LD_LIBRARY_PATH.
export LD_LIBRARY_PATH=./lib:<LOCATION_LIBRGA.SO>视频流Demo运行命令参考如下:h264视频./rknn_yolov8_video_demo model/<TARGET_PLATFORM>/yolov8s-640-640.rknn xxx.h264 264注意需要使用h264码流视频,可以使用如下命令转换得到:
ffmpeg -i xxx.mp4 -vcodec h264 xxx.h264h265视频./rknn_yolov8_video_demo model/<TARGET_PLATFORM>/yolov8s-640-640.rknn xxx.hevc 265注意需要使用h265码流视频,可以使用如下命令转换得到:
ffmpeg -i xxx.mp4 -vcodec hevc xxx.hevcrtsp视频流./rknn_yolov8_video_demo model/<TARGET_PLATFORM>/yolov8s-640-640.rknn <RTSP_URL> 265注意需要根据系统的rga驱动选择正确的librga库,具体依赖请参考: https://github.com/airockchip/librgark3562 目前仅支持h264视频流rtsp 视频流Demo仅在Linux系统上支持,Android上目前还不支持视频流输入的h264名称不能为"out.h264",会被覆盖