5.3 AIBase 模块 API 手册#
1. 概述#
本手册旨在指导开发人员使用 MicroPython 开发 AI Demo 时,构建完整的 AI 推理流程,实现从加载模型、预处理、推理、获取模型输出、后处理的功能。该模块封装了单个模型的推理过程,将预处理、推理、获取输出操作封装在框架内,用户在开发 AI 应用时只需要关注预处理配置和后处理过程即可。
2. API 介绍#
2.1 init#
描述
AIBase 构造函数,初始化 AI 程序获取图像的分辨率和显示相关的参数。
语法
from libs.AIBase import AIBase
aibase=AIBase(kmodel_path="**.kmodel", model_input_size=[224,224], rgb888p_size=[1280,720], debug_mode=0)
参数
参数名称 |
描述 |
输入 / 输出 |
说明 |
---|---|---|---|
kmodel_path |
kmodel 模型路径 |
输入 |
必填 |
model_input_size |
模型输入分辨率,list类型,包括宽高,如[512,512] |
输入 |
必填 |
rgb888p_size |
AI 程序的输入图像分辨率,list类型,包括宽高,如[1280,720] |
输入 |
必填 |
debug_mode |
调试计时模式,0计时,1不计时,int类型 |
输入 |
默认为0 |
返回值
返回值 |
描述 |
备注 |
---|---|---|
AIBase |
AIBase实例 |
该类一般作为父类被子类继承,基于该类编写不同场景的 AI Demo 类 |
2.2 get_kmodel_inputs_num#
描述
获取kmodel的输入数目。
语法
aibase.get_kmodel_inputs_num()
返回值
返回值 |
描述 |
---|---|
inputs_num |
kmodel输入数目 |
2.3 get_kmodel_outputs_num#
描述
获取kmodel的输出数目。
语法
aibase.get_kmodel_outputs_num()
返回值
返回值 |
描述 |
---|---|
outputs_num |
kmodel输出数目 |
2.3 preprocess#
描述
调用子类中定义的ai2d执行预处理的方法。如果预处理方法无法用ai2d实现或不需要预处理,需要在子类中重写。
语法
aibase.preprocess(input_np)
参数
参数名称 |
描述 |
输入 / 输出 |
说明 |
---|---|---|---|
input_np |
|
输入 |
必填 |
返回值
返回值 |
描述 |
---|---|
input_tensors |
ai2d预处理后得到的输入tensor列表 |
2.4 inference#
描述
使用kmodel进行推理并获取模型输出的方法。
语法
results=aibase.inference()
返回值
返回值 |
描述 |
---|---|
results |
kmodel推理输出的列表,每个输出为 |
2.5 postprocess#
描述
后处理接口定义,因为不同的 AI 应用需要不同的后处理步骤,该方法需要在子类重写。
语法
aibase.postprocess()
返回值
返回值 |
描述 |
---|---|
无 |
2.6 run#
描述
单模型推理全部过程,包含预处理、推理、获取输出、后处理,返回后处理输出,用于在 Display 绘制结果。
语法
aibase.run(input_np)
参数
参数名称 |
描述 |
输入 / 输出 |
说明 |
---|---|---|---|
input_np |
|
输入 |
必填 |
返回值
返回值 |
描述 |
---|---|
无 |
2.7 deinit#
描述
AIBase反初始化方法,销毁kpu实例,释放内存。
语法
aibase.deinit()
返回值
返回值 |
描述 |
---|---|
无 |
3. 示例程序#
注意
AIBase 类基本上不单独使用,其作为 AI Demo 应用开发的父类,提供基础接口,子类继承 AIBase, 按照任务类型重写部分方法实现具体场景的开发。开发时需要在子类定义 draw_result 方法按照任务绘制结果。
以下为人脸检测示例程序:
from libs.PipeLine import PipeLine, ScopedTiming
from libs.AIBase import AIBase
from libs.AI2D import Ai2d
import os,sys,gc,time,random,utime
import ujson
from media.media import *
from time import *
import nncase_runtime as nn
import ulab.numpy as np
import image
import aidemo
# 自定义人脸检测类,继承自AIBase基类
class FaceDetectionApp(AIBase):
def __init__(self, kmodel_path, model_input_size, anchors, confidence_threshold=0.5, nms_threshold=0.2, rgb888p_size=[224,224], display_size=[1920,1080], debug_mode=0):
super().__init__(kmodel_path, model_input_size, rgb888p_size, debug_mode) # 调用基类的构造函数
self.kmodel_path = kmodel_path # 模型文件路径
self.model_input_size = model_input_size # 模型输入分辨率
self.confidence_threshold = confidence_threshold # 置信度阈值
self.nms_threshold = nms_threshold # NMS(非极大值抑制)阈值
self.anchors = anchors # 锚点数据,用于目标检测
self.rgb888p_size = [ALIGN_UP(rgb888p_size[0], 16), rgb888p_size[1]] # sensor给到AI的图像分辨率,并对宽度进行16的对齐
self.display_size = [ALIGN_UP(display_size[0], 16), display_size[1]] # 显示分辨率,并对宽度进行16的对齐
self.debug_mode = debug_mode # 是否开启调试模式
self.ai2d = Ai2d(debug_mode) # 实例化Ai2d,用于实现模型预处理
self.ai2d.set_ai2d_dtype(nn.ai2d_format.NCHW_FMT, nn.ai2d_format.NCHW_FMT, np.uint8, np.uint8) # 设置Ai2d的输入输出格式和类型
# 配置预处理操作,这里使用了pad和resize,Ai2d支持crop/shift/pad/resize/affine,具体代码请打开/sdcard/app/libs/AI2D.py查看
def config_preprocess(self, input_image_size=None):
with ScopedTiming("set preprocess config", self.debug_mode > 0): # 计时器,如果debug_mode大于0则开启
ai2d_input_size = input_image_size if input_image_size else self.rgb888p_size # 初始化ai2d预处理配置,默认为sensor给到AI的尺寸,可以通过设置input_image_size自行修改输入尺寸
top, bottom, left, right = self.get_padding_param() # 获取padding参数
self.ai2d.pad([0, 0, 0, 0, top, bottom, left, right], 0, [104, 117, 123]) # 填充边缘
self.ai2d.resize(nn.interp_method.tf_bilinear, nn.interp_mode.half_pixel) # 缩放图像
self.ai2d.build([1,3,ai2d_input_size[1],ai2d_input_size[0]],[1,3,self.model_input_size[1],self.model_input_size[0]]) # 构建预处理流程
# 自定义当前任务的后处理,results是模型输出array列表,这里使用了aidemo库的face_det_post_process接口
def postprocess(self, results):
with ScopedTiming("postprocess", self.debug_mode > 0):
post_ret = aidemo.face_det_post_process(self.confidence_threshold, self.nms_threshold, self.model_input_size[1], self.anchors, self.rgb888p_size, results)
if len(post_ret) == 0:
return post_ret
else:
return post_ret[0]
# 绘制检测结果到画面上
def draw_result(self, pl, dets):
with ScopedTiming("display_draw", self.debug_mode > 0):
if dets:
pl.osd_img.clear() # 清除OSD图像
for det in dets:
# 将检测框的坐标转换为显示分辨率下的坐标
x, y, w, h = map(lambda x: int(round(x, 0)), det[:4])
x = x * self.display_size[0] // self.rgb888p_size[0]
y = y * self.display_size[1] // self.rgb888p_size[1]
w = w * self.display_size[0] // self.rgb888p_size[0]
h = h * self.display_size[1] // self.rgb888p_size[1]
pl.osd_img.draw_rectangle(x, y, w, h, color=(255, 255, 0, 255), thickness=2) # 绘制矩形框
else:
pl.osd_img.clear()
# 获取padding参数
def get_padding_param(self):
dst_w = self.model_input_size[0] # 模型输入宽度
dst_h = self.model_input_size[1] # 模型输入高度
ratio_w = dst_w / self.rgb888p_size[0] # 宽度缩放比例
ratio_h = dst_h / self.rgb888p_size[1] # 高度缩放比例
ratio = min(ratio_w, ratio_h) # 取较小的缩放比例
new_w = int(ratio * self.rgb888p_size[0]) # 新宽度
new_h = int(ratio * self.rgb888p_size[1]) # 新高度
dw = (dst_w - new_w) / 2 # 宽度差
dh = (dst_h - new_h) / 2 # 高度差
top = int(round(0))
bottom = int(round(dh * 2 + 0.1))
left = int(round(0))
right = int(round(dw * 2 - 0.1))
return top, bottom, left, right
if __name__ == "__main__":
# 显示模式,默认"hdmi",可以选择"hdmi"和"lcd"
display_mode="hdmi"
# k230保持不变,k230d可调整为[640,360]
rgb888p_size = [1920, 1080]
if display_mode=="hdmi":
display_size=[1920,1080]
else:
display_size=[800,480]
# 设置模型路径和其他参数
kmodel_path = "/sdcard/examples/kmodel/face_detection_320.kmodel"
# 其它参数
confidence_threshold = 0.5
nms_threshold = 0.2
anchor_len = 4200
det_dim = 4
anchors_path = "/sdcard/examples/utils/prior_data_320.bin"
anchors = np.fromfile(anchors_path, dtype=np.float)
anchors = anchors.reshape((anchor_len, det_dim))
# 初始化PipeLine,用于图像处理流程
pl = PipeLine(rgb888p_size=rgb888p_size, display_size=display_size, display_mode=display_mode)
pl.create() # 创建PipeLine实例
# 初始化自定义人脸检测实例
face_det = FaceDetectionApp(kmodel_path, model_input_size=[320, 320], anchors=anchors, confidence_threshold=confidence_threshold, nms_threshold=nms_threshold, rgb888p_size=rgb888p_size, display_size=display_size, debug_mode=0)
face_det.config_preprocess() # 配置预处理
try:
while True:
os.exitpoint() # 检查是否有退出信号
with ScopedTiming("total",1):
img = pl.get_frame() # 获取当前帧数据
res = face_det.run(img) # 推理当前帧
face_det.draw_result(pl, res) # 绘制结果
pl.show_image() # 显示结果
gc.collect() # 垃圾回收
except Exception as e:
sys.print_exception(e) # 打印异常信息
finally:
face_det.deinit() # 反初始化
pl.destroy() # 销毁PipeLine实例
4. 开发Tips#
对于开发中常见的数据类型转换,这里给出对应的示例供参考。
Tips:
Image对象转ulab.numpy.ndarray:
import image img.to_rgb888().to_numpy_ref() #返回的array是HWC排布ulab.numpy.ndarray转Image对象:
import ulab.numpy as np import image img_np = np.zeros((height,width,4),dtype=np.uint8) img = image.Image(width, height, image.ARGB8888, alloc=image.ALLOC_REF,data =img_np)ulab.numpy.ndarray转tensor类型:
import ulab.numpy as np import nncase_runtime as nn img_np = np.zeros((height,width,4),dtype=np.uint8) tensor = nn.from_numpy(img_np)tensor 类型转ulab.numpy.ndarray:
import ulab.numpy as np import nncase_runtime as nn img_np=tensor.to_numpy()