基于米尔瑞芯微RK3576开发板实测4路YOLOv8视频流

2025年09月12日 17:50    发布者:swiftman
在科技飞速发展的当下,人工智能与边缘计算的融合正以前所未有的速度重塑着我们的生活。RK3576芯片拥有4核Cortex-A72以及4核Cortex-A53提供基础算力,6TOPS算力NPU来模型推导运算。使用YOLOv8模型时也是手到擒来,接下来随着步伐看看它表现如何。YOLO简介YOLO(You Only Look Once)是当前业界领先的实时目标检测算法系列,以其速度和精度的完美平衡而闻名。从它发布至今,经历了好几个版本变革,下图是它发展历史。

图1-1. YOLO版本发展史YOLOv8在性能、易用性、架构现代性和生态之间取得了最佳的平衡,它是目前最全面,最省心选择。同样YOLOv8也有很多尾缀,用一个表简单列一下它们分别代表什么意思:表1-1.按任务类型区分
后缀全称任务输出典型应用
-detDetection目标检测边界框 (BBox)+类别和置信度找出图像中所有感兴趣的物体并用框标出。如:行人检测、车辆检测、安全帽检测。
-segSegmentation实例分割边界框+类别+像素级掩膜 (Mask)在目标检测的基础上,进一步勾勒出物体的精确轮廓。如:抠图、自动驾驶中识别道路和车辆形状。
-posePose关键点检测边界框+人体关键点(17个点)检测人体的关键骨骼点。如:动作识别、健身姿态分析、人机交互。
-clsClassification图像分类整个图像的类别标签判断一张图片属于哪个类别。如:猫狗分类、图像质量评估。
-obbOriented Bounding Boxes旋转目标检测旋转边界框(BBox+角度θ)+类别和置信度检测带有角度的物体,其边界框不是水平的。
表1-2.按模型尺寸分
前缀含义特点适用场景
nNano极小的模型,速度最快,精度最低移动端、嵌入式设备(如 Jetson Nano)、CPU实时推理
sSmall小模型,速度和精度平衡最常用的起点,适合大多数需要实时性的场景(如视频流分析)
mMedium中等模型,精度和速度的最佳权衡对精度有较高要求,且仍有不错的速度
lLarge大模型,精度高,速度较慢服务器端应用,其中精度比速度更重要
xX-Large超大模型,精度最高,速度最慢学术研究、刷榜、对精度有极致要求的离线分析
米尔Demo模型选择基于MYD-LR3576来说,选择s/n小模型相对合适,使用基础功能和-seg,-obb,-pos来演示。米尔基于RK3576开发板
单独测试视频场景1.YOLOv8s.int 目标检测模型实现方式如下:MYD-LR3576拥有3路MIPI-CSI接口,通过3个MY-CAM004M分别接入3路MIPI-CSI,采用2+1+1方式搭载4路AHD高清摄像头,摄像头采集的画面输出为H.264编码的RTSP码流,1920*1080分辨率,30帧。经过MYD-LR3576开发板处理后,单路视频输出1920*1080,25fps,4路视频加起来在60~70帧,cpu占用率接近100%,NPU综合利用率在50~60%。

图1-2. 实物接线概要图

图1-3. 摄像头数据处理流程图MYIR在程序中做了哪些优化AI推导一轮流程
[*]获取CSI一帧数据
[*]裁剪数据到xxx*yyy较小图片
[*]调用RKNN api处理
[*]获取返回特征位置和相似度
[*]对应放大到原始图片
[*]增加方框和相似度值到原图
这样做后果是CPU利用率不高,视频采集帧数低,最后显示效果会卡顿。米尔采用线程池方案,将上述过程通过线程处理,充分利用4个A72和4个A53资源,同时采用RGA来做图片裁剪和放大。将CPU,GPU,NPU,VPU4个模块协同工作,资源最大限度开发使用。总结:RK3576 在 YOLOv8 模型表现上十分亮眼,它的应用场景涉及到很多领域。例如智能安防,在公共场所,如机场、火车站、商场等,部署的安防监控系统,快速准确地识别出人群中的异常行为,如打架斗殴、奔跑逃窜等,并及时发出警报,同时,通过人脸识别技术,系统可以对进入场所的人员进行身份识别,与数据库中的信息进行比对,实现对重点人员的监控和追踪。又或者搭载智能机器人赋予迅速反馈。更多MYD-LR3576创新应用,敬请期待。