第四十一章 YOLO2物体检测实验

《DNK210使用指南 -CanMV版 V1.0》第四十一章 YOLO2物体检测实验

在上一章节中,介绍了利用maix.KPU模块实现YOLO2的人手检测,本章将继续介绍利用maix.KPU模块实现YOLO2的物体检测。通过本章的学习,读者将学习到YOLO2网络的物体检测应用在CanMV上的实现。

本章分为如下几个小节:

41.1 maix.KPU模块介绍

41.2 硬件设计

41.3 程序设计

41.4 运行验证

41.1 maix.KPU模块介绍

有关maix.KPU模块的介绍,请见第39.1小节《maix.KPU模块介绍》。

41.2 硬件设计

41.2.1 例程功能

1. 获取摄像头输出的图像,并送入KPU进行YOLO2的物体检测模型运算,后将运算结果和摄像头输出的图像一起显示在LCD上。

41.2.2 硬件资源

本章实验内容,主要讲解maix.KPU模块的使用,无需关注硬件资源。

41.2.3 原理图

本章实验内容,主要讲解maix.KPU模块的使用,无需关注原理图。

41.3 程序设计

41.3.1 maix.KPU模块介绍

有关maix.KPU模块的介绍,请见第41.1小节《maix.KPU模块介绍》。

41.3.2 程序流程图

图41.3.2.1 YOLO2人手检测实验流程图

41.3.3 main.py代码

main.py中的脚本代码如下所示:

import lcd
import sensor
import image
import gc
from maix import KPU
lcd.init()
sensor.reset()
sensor.set_framesize(sensor.QVGA)
sensor.set_pixformat(sensor.RGB565)
sensor.set_hmirror(False)
resize_img = image.Image(size=(320, 256))
anchor = (1.3221, 1.73145, 3.19275, 4.00944, 5.05587, 8.09892, 9.47112, 4.84053, 11.2364, 10.0071)
names = ["aeroplane", "bicycle", "bird", "boat", "bottle", "bus", "car", "cat", "chair", "cow", "diningtable", "dog", "horse", "motorbike", "person", "pottedplant", "sheep", "sofa", "train", "tvmonitor"]
# 构造KPU对象
object_detecter = KPU()
# 加载模型文件
object_detecter.load_kmodel("/sd/KPU/voc20_detect.kmodel")
# 初始化YOLO2网络
object_detecter.init_yolo2(anchor, anchor_num=len(anchor) // 2, img_w=320, img_h=240, net_w=320, net_h=256, layer_w=10, layer_h=8, threshold=0.5, nms_value=0.2, classes=len(names))
while True:
    img= sensor.snapshot()
   resize_img.draw_image(img, 0, 0).pix_to_ai()
    # 进行KPU运算
   object_detecter.run_with_output(resize_img)
    # 进行YOLO2运算
   objects = object_detecter.regionlayer_yolo2()
    for object in objects:
       img.draw_rectangle(object[0], object[1], object[2], object[3], color=(0, 255, 0))
       img.draw_string(object[0] + 2, object[1] + 2, "%.2f" % (object[5]), color=(0, 255, 0))
       img.draw_string(object[0] + 2, object[1] + 10, names[object[4]], color=(0, 255, 0))
    lcd.display(img)
    gc.collect()

可以看到一开始是先初始化了LCD和摄像头。

接着是构造一个KPU对象,并从文件系统中加载YOLO2人手检测网络需要用到的网络模型,并初始化YOLO2网络。

然后便是在一个循环中不断地获取摄像头输出的图像,由于网络需要的图像尺寸与摄像头直接输出的图像尺寸不一致,因此将其复制到网络需要的图像尺寸的图像上,再并将其送入KPU中进行运算,然后再进行YOLO2网络运算,最后便得到网络识别出物体在输入图像上的一些信息,将这些信息绘制到图像上后,在LCD上显示图像。

41.4 运行验证

将DNK210开发板连接CanMV IDE,点击CanMV IDE上的“开始(运行脚本)”按钮后,将摄像头对准物体,让其采集到物体图像,随后便能在LCD上看到摄像头输出的图像,同时图像中的物体均被绿色的矩形框框出,并在矩形框内的左上角标出了物体的名称和置信度,如下图所示:

图41.4.1 LCD显示YOLO2物体检测结果

#程序员##嵌入式##开发##硬件##产品#
正点原子DNK210开发板教程 文章被收录于专栏

正点原子DNK210开发板教程:DNK210使用指南 -CanMV版 V1.0

全部评论

相关推荐

Webpack是一个模块打包工具,它的主要目的是将应用程序的各个模块打包成一个或多个文件,以便在浏览器中运行。Webpack的工作原理可以简要概括为以下几个步骤:https://www.nowcoder.com/issue/tutorial?zhuanlanId=Mg58Em&uuid=07d53be4cd034a4ab270d500feebcc8d入口点:Webpack将根据配置文件中指定的入口点开始处理打包过程。入口点是应用程序的起始模块,可以是一个或多个文件,Webpack会从这些文件开始构建依赖关系图。构建依赖关系图:Webpack会分析入口点文件及其依赖的模块,通过静态分析确定它们之间的依赖关系。Webpack会递归地查找所有依赖的模块,直到构建出完整的依赖关系图。资源加载与转换:一旦确定了所有的依赖关系,Webpack会根据配置文件中的规则来处理模块。这些规则可以定义如何加载、解析和转换各种资源,例如JavaScript、CSS、图片等。Webpack会使用相应的加载器(loader)和插件(plugins)来处理模块,并且可以根据需要进行编译、压缩、合并等操作。打包输出:在完成资源加载与转换之后,Webpack会将所有的模块打包成一个或多个输出文件。输出文件的数量和命名方式可以通过配置文件进行调整。常见的输出文件类型包括JavaScript文件、CSS文件和图片等。优化与压缩:Webpack还提供了一些优化功能用于减小打包文件的体积和提升加载性能。例如,Webpack可以通过代码分割将应用程序拆分成多个异步加载的模块,从而减少初始加载时间。另外,Webpack还可以对输出文件进行压缩、混淆和缓存等处理,以提高运行效率。这就是Webpack的基本工作原理。它的强大之处在于可以通过插件和配置文件来灵活地定制打包过程,以满足不同项目的需求。
2024-12-04
在牛客打卡273天,今天也很努力鸭!
点赞 评论 收藏
分享
点赞 评论 收藏
分享
评论
点赞
收藏
分享
牛客网
牛客企业服务