《------往期经典推荐------》

一、AI应用软件开发实战专栏【链接】

项目名称 项目名称
1.【人脸识别与管理系统开发 2.【车牌识别与自动收费管理系统开发
3.【手势识别系统开发 4.【人脸面部活体检测系统开发
5.【图片风格快速迁移软件开发 6.【人脸表表情识别系统
7.【YOLOv8多目标识别与自动标注软件开发 8.【基于YOLOv8深度学习的行人跌倒检测系统
9.【基于YOLOv8深度学习的PCB板缺陷检测系统 10.【基于YOLOv8深度学习的生活垃圾分类目标检测系统
11.【基于YOLOv8深度学习的安全帽目标检测系统 12.【基于YOLOv8深度学习的120种犬类检测与识别系统
13.【基于YOLOv8深度学习的路面坑洞检测系统 14.【基于YOLOv8深度学习的火焰烟雾检测系统
15.【基于YOLOv8深度学习的钢材表面缺陷检测系统 16.【基于YOLOv8深度学习的舰船目标分类检测系统
17.【基于YOLOv8深度学习的西红柿成熟度检测系统 18.【基于YOLOv8深度学习的血细胞检测与计数系统
19.【基于YOLOv8深度学习的吸烟/抽烟行为检测系统 20.【基于YOLOv8深度学习的水稻害虫检测与识别系统
21.【基于YOLOv8深度学习的高精度车辆行人检测与计数系统 22.【基于YOLOv8深度学习的路面标志线检测与识别系统
23.【基于YOLOv8深度学习的智能小麦害虫检测识别系统 24.【基于YOLOv8深度学习的智能玉米害虫检测识别系统
25.【基于YOLOv8深度学习的200种鸟类智能检测与识别系统 26.【基于YOLOv8深度学习的45种交通标志智能检测与识别系统
27.【基于YOLOv8深度学习的人脸面部表情识别系统 28.【基于YOLOv8深度学习的苹果叶片病害智能诊断系统
29.【基于YOLOv8深度学习的智能肺炎诊断系统 30.【基于YOLOv8深度学习的葡萄簇目标检测系统
31.【基于YOLOv8深度学习的100种中草药智能识别系统 32.【基于YOLOv8深度学习的102种花卉智能识别系统
33.【基于YOLOv8深度学习的100种蝴蝶智能识别系统 34.【基于YOLOv8深度学习的水稻叶片病害智能诊断系统
35.【基于YOLOv8与ByteTrack的车辆行人多目标检测与追踪系统 36.【基于YOLOv8深度学习的智能草莓病害检测与分割系统
37.【基于YOLOv8深度学习的复杂场景下船舶目标检测系统 38.【基于YOLOv8深度学习的农作物幼苗与杂草检测系统
39.【基于YOLOv8深度学习的智能道路裂缝检测与分析系统 40.【基于YOLOv8深度学习的葡萄病害智能诊断与防治系统
41.【基于YOLOv8深度学习的遥感地理空间物体检测系统 42.【基于YOLOv8深度学习的无人机视角地面物体检测系统
43.【基于YOLOv8深度学习的木薯病害智能诊断与防治系统 44.【基于YOLOv8深度学习的野外火焰烟雾检测系统
45.【基于YOLOv8深度学习的脑肿瘤智能检测系统 46.【基于YOLOv8深度学习的玉米叶片病害智能诊断与防治系统
47.【基于YOLOv8深度学习的橙子病害智能诊断与防治系统 48.【基于深度学习的车辆检测追踪与流量计数系统
49.【基于深度学习的行人检测追踪与双向流量计数系统 50.【基于深度学习的反光衣检测与预警系统
51.【基于深度学习的危险区域人员闯入检测与报警系统 52.【基于深度学习的高密度人脸智能检测与统计系统
53.【基于深度学习的CT扫描图像肾结石智能检测系统 54.【基于深度学习的水果智能检测系统
55.【基于深度学习的水果质量好坏智能检测系统 56.【基于深度学习的蔬菜目标检测与识别系统
57.【基于深度学习的非机动车驾驶员头盔检测系统 58.【太基于深度学习的阳能电池板检测与分析系统
59.【基于深度学习的工业螺栓螺母检测 60.【基于深度学习的金属焊缝缺陷检测系统
61.【基于深度学习的链条缺陷检测与识别系统 62.【基于深度学习的交通信号灯检测识别
63.【基于深度学习的草莓成熟度检测与识别系统 64.【基于深度学习的水下海生物检测识别系统
65.【基于深度学习的道路交通事故检测识别系统 66.【基于深度学习的安检X光危险品检测与识别系统
67.【基于深度学习的农作物类别检测与识别系统 68.【基于深度学习的危险驾驶行为检测识别系统
69.【基于深度学习的维修工具检测识别系统 70.【基于深度学习的维修工具检测识别系统
71.【基于深度学习的建筑墙面损伤检测系统 72.【基于深度学习的煤矿传送带异物检测系统
72.【基于深度学习的老鼠智能检测系统

二、机器学习实战专栏【链接】,已更新31期,欢迎关注,持续更新中~~
三、深度学习【Pytorch】专栏【链接】
四、【Stable Diffusion绘画系列】专栏【链接】
五、YOLOv8改进专栏【链接】持续更新中~~
六、YOLO性能对比专栏【链接】,持续更新中~

《------正文------》

基本功能演示

【旋转框目标检测】基于YOLO11//v8/深度学习的遥感视角船只智能检测系统设计与实现【python源码+Pyqt5界面+数据集+训练代码】

摘要:随着全球经济一体化的加深,海上运输作为国际贸易的重要纽带,其安全性和效率变得尤为重要。然而,传统的船只监测方法依赖于人工观测或有限的自动化系统,这些方法在面对复杂多变的海洋环境时显得力不从心。本文基于YOLOv11/v8的深度学习框架,通过12616张实际场景中遥感视角船只的相关图片,训练了可进行遥感视角船只目标检测的模型,并且采用了最新的旋转框目标检测技术,其相对于传统的水平框检测,结果更加精准可靠。同时全面对比分析了YOLOv8n-obb、YOLO11n-obb这2种模型在验证集上的评估性能表现。最终基于训练好的模型制作了一款带UI界面的遥感视角船只智能检测系统,更便于进行功能的展示。该系统是基于pythonPyQT5开发的,支持图片视频以及摄像头进行目标检测,并保存检测结果。本文提供了完整的Python代码和使用教程,给感兴趣的小伙伴参考学习,完整的代码资源文件获取方式见文末

点击跳转至文末《完整相关文件及源码》获取


研究背景

随着全球经济一体化的加深,海上运输作为国际贸易的重要纽带,其安全性和效率变得尤为重要。然而,传统的船只监测方法依赖于人工观测或有限的自动化系统,这些方法在面对复杂多变的海洋环境时显得力不从心。

基于YOLO深度学习框架开发的遥感视角船只检测系统,利用先进的计算机视觉技术,能够对卫星图像、无人机拍摄的画面或地面监控摄像头捕捉到的影像进行高效分析,实现对水面船只的自动识别与定位,并且采用旋转框检测模型能够检测船只的长宽、角度等信息。这项技术不仅提升了监测的准确性和实时性,还为应对各种海洋活动提供了强有力的数据支持,对于提升海上交通安全、优化航运管理以及加强海洋环境保护等方面具有不可替代的重要性。

旋转框检测优势

本文采用的是旋转框目标检测模型,为什么采用旋转框检测而不采用传统的水平框检测呢?因为其相较于传统水平框的目标框(Axis-Aligned Bounding Box, AABB)具有以下优势:

1. 更紧密的物体包围
在这里插入图片描述
示例:图中蓝色框为传统水平框检测结果,红色为旋转框检测结果

问题:传统框是水平和垂直的矩形,无法贴合倾斜或长宽比悬殊的物体(如车辆、船只、文本等),导致框内包含大量无关背景区域。

优势:旋转框通过引入角度参数(如旋转角或方向角),能更精确地贴合物体轮廓,减少冗余背景,提升检测的语义准确性。

示例:
遥感图像中的船舶、自然场景中的倾斜文本,用旋转框可避免传统框的“空洞”区域。

2. 减少密集场景中的重叠问题
在这里插入图片描述
示例:左图为传统水平框检测结果,右图为旋转框检测结果

问题:传统框在物体密集或排列不规则时,检测框容易大面积重叠,导致非极大值抑制(NMS)误删正确检测。

优势:旋转框通过角度对齐物体,降低框之间的重叠率,缓解NMS的误判问题,提升召回率。

示例:
仓储物流中堆叠的货箱、交通场景中密集停放的车辆。

3. 提升倾斜物体的检测精度
问题:传统框对倾斜物体的标注会引入大量背景噪声,导致分类置信度下降或定位误差增大。

优势:旋转框通过方向感知建模,更适应物体的几何特性,尤其适合处理具有显著方向性的目标(如飞机、风力发电机叶片)。

示例:
航拍图像中不同朝向的飞机、医学影像中倾斜的器官结构。

4. 支持更复杂的下游任务
优势:旋转框提供的角度和形状信息可直接用于后续任务,如:

实例分割:更精准的物体掩膜生成。

姿态估计:结合角度信息推断物体朝向。

运动预测(如自动驾驶):通过方向角预判车辆行驶轨迹。

5. 特定领域的必要需求
遥感图像:建筑物、农田等目标通常具有任意方向,传统框难以满足检测需求。

文档分析:倾斜或弯曲的文本行需要旋转框准确定位。

工业检测:机械零件、PCB板元件的方向对缺陷检测至关重要。

6. 更严格的评估指标
传统IoU(交并比)对旋转框不敏感,旋转框通常使用 旋转IoU(Rotated IoU) 或 方向敏感损失函数,能更真实反映模型性能。

局限性
尽管旋转框有上述优势,但也面临挑战:
标注成本高:需要标注角度,工具和人工成本更高。
模型复杂度:需设计角度回归分支,可能增加训练难度。
计算开销:旋转框的IoU计算复杂度高于传统框。

总的来说,旋转框在密集场景、倾斜物体、方向敏感任务中优势显著,但其适用性需结合具体场景权衡。传统框因简单高效,仍是通用场景的主流选择,而旋转框是特定领域(如遥感、文本检测)的重要补充。

系统应用场景

海上交通管理: 通过实时监控特定海域内的船只动态,帮助海事管理部门优化航线规划,减少碰撞风险,提高航道利用率。
边境安全监控: 用于国家边界的海域监控,增强对非法越境行为的预警能力,维护国家安全。
渔业资源保护: 协助渔业监管机构监控禁渔区和限制捕捞区域,有效打击非法捕鱼活动,保护海洋生态平衡。
灾害响应与搜救行动: 在发生海上事故时,快速定位遇险船只的位置,为救援队伍提供关键信息,加快救援速度。
环境保护与污染控制: 监控油轮及其他可能造成环境污染的船只航行情况,及时发现并处理潜在的污染源,保护海洋环境。
科学研究: 为海洋学研究提供数据支持,如船只流量统计、海洋生物迁徙模式探索等,增进对海洋生态系统理解。

主要工作内容

本文的主要内容包括以下几个方面:

  1. 搜集与整理数据集:搜集整理实际场景中遥感视角船只的相关数据图片,并进行相应的数据处理,为模型训练提供训练数据集;
  2. 训练模型:基于整理的数据集,根据最前沿的YOLOv11/v8目标检测技术训练旋转框目标检测模型,实现对需要检测的对象进行有效检测的功能;
  3. 模型性能对比:对训练出的2种模型在验证集上进行了充分的结果评估和对比分析,主要目的是为了揭示每个模型在关键指标(如Precision、Recall、mAP50和mAP50-95等指标)上的优劣势。这不仅帮助我们在实际应用中选择最适合特定需求的模型,还能够指导后续模型优化和调优工作,以期获得更高的检测准确率和速度。最终,通过这种系统化的对比和分析,我们能更好地理解模型的鲁棒性、泛化能力以及在不同类别上的检测表现,为开发更高效的计算机视觉系统提供坚实的基础。
  4. 可视化系统制作:基于训练出的目标检测模型,搭配Pyqt5制作的UI界面,用python开发了一款界面简洁的软件系统,可支持图片、视频以及摄像头检测,同时可以将图片或者视频检测结果进行保存。其目的是为检测系统提供一个用户友好的操作平台,使用户能够便捷、高效地进行检测任务。

软件初始界面如下图所示:
在这里插入图片描述

检测结果界面如下:
在这里插入图片描述

注:右侧窗口中上面窗口为原始图片,下方窗口为图片检测结果。

一、软件核心功能介绍及效果演示

软件主要功能

1. 可用于实际场景中的遥感视角船只检测,只有1个检测类别:['船只'];
2. 支持图片、视频及摄像头进行检测,同时支持图片的批量检测
3. 界面可实时显示目标位置目标总数置信度用时等信息;
4. 支持图片或者视频检测结果保存
5. 支持将图片的检测结果保存为csv文件;

界面参数设置说明

在这里插入图片描述

置信度阈值:也就是目标检测时的conf参数,只有检测出的目标框置信度大于该值,结果才会显示;
交并比阈值:也就是目标检测时的iou参数,对检测框重叠比例iou大于该阈值的目标框进行过滤【也就是说假如两检测框iou大于该值的话,会过滤掉其中一个,该值越小,重叠框会越少】;

检测结果说明

在这里插入图片描述
显示标签名称与置信度:表示是否在检测图片上标签名称与置信度,显示默认勾选,如果不勾选则不会在检测图片上显示标签名称与置信度;
总目标数:表示画面中检测出的目标数目;
目标选择:可选择单个目标进行位置信息、置信度等信息查看。
旋转框相关信息:
中心点坐标:表示旋转矩形框的中心点位置坐标;
旋转角度(°):表示矩形框长边与水平线之间小于90°的夹角;
旋转框长:表示旋转框的长边长度(px像素单位);
旋转框宽:表示旋转框的宽长度(px像素单位);

主要功能说明

功能视频演示见文章开头,以下是简要的操作描述。

(1)图片检测说明

点击打开图片按钮,选择需要检测的图片,或者点击打开文件夹按钮,选择需要批量检测图片所在的文件夹,操作演示如下:
点击目标下拉框后,可以选定指定目标的结果信息进行显示。
点击保存按钮,会对检测结果进行保存,存储路径为:save_data目录下,同时会将图片检测信息保存csv文件
注:1.右侧目标位置默认显示置信度最大一个目标位置,可用下拉框进行目标切换。所有检测结果均在左下方表格中显示。

(2)视频检测说明

点击视频按钮,打开选择需要检测的视频,就会自动显示检测结果,再次点击可以关闭视频。
点击保存按钮,会对视频检测结果进行保存,存储路径为:save_data目录下。

(3)摄像头检测说明

点击打开摄像头按钮,可以打开摄像头,可以实时进行检测,再次点击,可关闭摄像头。

(4)保存图片与视频检测说明

点击保存按钮后,会将当前选择的图片【含批量图片】或者视频的检测结果进行保存,对于图片图片检测还会保存检测结果为csv文件,方便进行查看与后续使用。检测的图片与视频结果会存储在save_data目录下。
注:暂不支持视频文件的检测结果保存为csv文件格式。

保存的检测结果文件如下:
在这里插入图片描述

图片文件保存的csv文件内容如下,包括图片路径、目标在图片中的编号、目标类别、置信度、中心点坐标、旋转框长、旋转框宽、旋转角度
在这里插入图片描述

二、YOLOv5/v8/v10/11介绍

关于YOLOv5/v8/v10/v11模型的详细介绍可以参考之前分享的博客文章《YOLOv5/v8/v10/v11详细介绍:网络结构,创新点》,地址:

https://a-xu-ai.blog.csdn.net/article/details/143272589

在这里插入图片描述

二、模型训练、评估与推理

本文主要基于YOLOv8n-obb、YOLO11n-obb这2种旋转框检测模型进行模型的训练,训练完成后对2种模型在验证集上的表现进行全面的性能评估及对比分析。模型训练和评估流程基本一致,包括:数据集准备、模型训练、模型评估。
下面主要以最新的YOLO11为例进行训练过程的详细讲解,YOLOv8的训练过程类似。

1. 数据集准备与训练

通过网络上搜集关于实际场景中水面垃圾的相关图片,并使用roLabelImg标注工具对每张图片进行标注,分1个检测类别['船']

最终数据集一共包含12616张图片,其中训练集包含9583张图片验证集包含3033张图片
部分数据集图像及标注如下图所示:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

数据集各类别数目分布情况如下:
在这里插入图片描述

2.模型训练

准备好数据集后,将图片数据以如下格式放置在项目目录中。在项目目录中新建datasets目录,同时将检测的图片分为训练集与验证集放入Data目录下。
在这里插入图片描述

自定义数据集格式

数据集格式
在这里插入图片描述

YOLO OBB格式通过其四个角点指定边界框,坐标在0和1之间归一化。它遵循以下格式:

class_index, x1, y1, x2, y2, x3, y3, x4, y4

在内部,YOLO以xywhr格式处理损失和输出,该格式表示边界框的中心点(xy)、宽度、高度和旋转。

img

同时我们需要新建一个data.yaml文件,用于存储训练数据的路径及模型需要进行检测的类别。YOLOv11在进行模型训练时,会读取该文件的信息,用于进行模型的训练与验证。data.yaml的具体内容如下:

train: D:\2MyCVProgram\7.ObbDetection\ShipObbDetection_v11\datasets\Data\images\train
val: D:\2MyCVProgram\7.ObbDetection\ShipObbDetection_v11\datasets\Data\images\val

nc: 1
names: ['ship']

注:train与val后面表示需要训练图片的路径,建议直接写自己文件的绝对路径。
数据准备完成后,通过调用train.py文件进行模型训练,epochs参数用于调整训练的轮数,batch参数用于调整训练的批次大小【根据内存大小调整,最小为1】,optimizer设定的优化器为SGD,训练代码如下:

#coding:utf-8
from ultralytics import YOLO
import matplotlib
matplotlib.use('TkAgg')

# 模型配置文件
model_yaml_path = "ultralytics/cfg/models/11/yolo11-obb.yaml"
#数据集配置文件
data_yaml_path = 'datasets/Data/data.yaml'
#预训练模型
pre_model_name = 'yolo11n-obb.pt'

if __name__ == '__main__':
    #加载预训练模型
    model = YOLO(model_yaml_path).load(pre_model_name)
    #训练模型
    results = model.train(data=data_yaml_path,
                          epochs=150,      # 训练轮数
                          batch=4,         # batch大小
                          name='train_v11', # 保存结果的文件夹名称
                          optimizer='SGD') # 优化器

模型常用训练超参数参数说明:
YOLO11 模型的训练设置包括训练过程中使用的各种超参数和配置。这些设置会影响模型的性能、速度和准确性。关键的训练设置包括批量大小、学习率、动量和权重衰减。此外,优化器、损失函数和训练数据集组成的选择也会影响训练过程。对这些设置进行仔细的调整和实验对于优化性能至关重要。
以下是一些常用的模型训练参数和说明:

参数名 默认值 说明
model None 指定用于训练的模型文件。接受指向 .pt 预训练模型或 .yaml 配置文件。对于定义模型结构或初始化权重至关重要。
data None 数据集配置文件的路径(例如 coco8.yaml).该文件包含特定于数据集的参数,包括训练数据和验证数据的路径、类名和类数。
epochs 100 训练总轮数。每个epoch代表对整个数据集进行一次完整的训练。调整该值会影响训练时间和模型性能。
patience 100 在验证指标没有改善的情况下,提前停止训练所需的epoch数。当性能趋于平稳时停止训练,有助于防止过度拟合。
batch 16 批量大小,有三种模式:设置为整数(例如,’ Batch =16 ‘), 60% GPU内存利用率的自动模式(’ Batch =-1 ‘),或指定利用率分数的自动模式(’ Batch =0.70 ')。
imgsz 640 用于训练的目标图像尺寸。所有图像在输入模型前都会被调整到这一尺寸。影响模型精度和计算复杂度。
device None 指定用于训练的计算设备:单个 GPU (device=0)、多个 GPU (device=0,1)、CPU (device=cpu),或苹果芯片的 MPS (device=mps).
workers 8 加载数据的工作线程数(每 RANK 多 GPU 训练)。影响数据预处理和输入模型的速度,尤其适用于多 GPU 设置。
name None 训练运行的名称。用于在项目文件夹内创建一个子目录,用于存储训练日志和输出结果。
pretrained True 决定是否从预处理模型开始训练。可以是布尔值,也可以是加载权重的特定模型的字符串路径。提高训练效率和模型性能。
optimizer 'auto' 为训练模型选择优化器。选项包括 SGD, Adam, AdamW, NAdam, RAdam, RMSProp 等,或 auto 用于根据模型配置进行自动选择。影响收敛速度和稳定性
lr0 0.01 初始学习率(即 SGD=1E-2, Adam=1E-3) .调整这个值对优化过程至关重要,会影响模型权重的更新速度。
lrf 0.01 最终学习率占初始学习率的百分比 = (lr0 * lrf),与调度程序结合使用,随着时间的推移调整学习率。

3. 训练结果评估

在深度学习中,我们通常用损失函数下降的曲线来观察模型训练的情况。YOLOv11在训练时主要包含三个方面的损失:定位损失(box_loss)、分类损失(cls_loss)和动态特征损失(dfl_loss),在训练结束后,可以在runs/目录下找到训练过程及结果文件,如下所示:
在这里插入图片描述

各损失函数作用说明:
定位损失box_loss:预测框与标定框之间的误差(GIoU),越小定位得越准;
分类损失cls_loss:计算锚框与对应的标定分类是否正确,越小分类得越准;
动态特征损失(dfl_loss):DFLLoss是一种用于回归预测框与目标框之间距离的损失函数。在计算损失时,目标框需要缩放到特征图尺度,即除以相应的stride,并与预测的边界框计算Ciou Loss,同时与预测的anchors中心点到各边的距离计算回归DFLLoss。
本文训练结果如下:
在这里插入图片描述
我们通常用PR曲线来体现精确率和召回率的关系,本文训练结果的PR曲线如下。mAP表示Precision和Recall作为两轴作图后围成的面积,m表示平均,@后面的数表示判定iou为正负样本的阈值。mAP@.5:表示阈值大于0.5的平均mAP,可以看到本文模型目标检测的mAP@0.5值为0.9,对于小目标检测来说,检测结果还是十分错的。
在这里插入图片描述

模型在验证集上的评估结果如下:
在这里插入图片描述

4. 使用模型进行推理

模型训练完成后,我们可以得到一个最佳的训练结果模型best.pt文件,在runs/train/weights目录下。我们可以使用该文件进行后续的推理检测。
图片检测代码如下:

#coding:utf-8
from ultralytics import YOLO
import cv2

# 所需加载的模型目录
path = 'models/best.pt'
# 需要检测的图片地址
img_path = "TestFiles/P1929__1024__309___0.jpg"

# 加载预训练模型
# conf	0.25	置信度阈值
# iou	0.7	    iou阈值
model = YOLO(path, task='obb')
# model = YOLO(path, task='obb',conf=0.5)

# 检测图片
results = model(img_path)
res = results[0].plot(labels=False)

# res = cv2.resize(res,dsize=None,fx=0.5,fy=0.5,interpolation=cv2.INTER_LINEAR)
cv2.imshow("Result", res)
# cv2.imwrite("result.jpg", res)
cv2.waitKey(0)

执行上述代码后,会将执行的结果直接标注在图片上,结果如下:
在这里插入图片描述

更多检测结果示例如下:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

三、YOLOv8/11性能对比分析

本文在介绍的数据集上分别训练了YOLOv8n-obb、YOLO11n-obb这4种模型用于对比分析,训练轮数为150个epoch。主要分析这2种模型的训练结果在Precision(精确度)Recall(召回率)mAP50mAP50-95F1-score等性能指标上的表现,以选出更适合本数据集的最优模型。

1.常用评估参数介绍

在这里插入图片描述

  1. Precision(精确度):

    • 精确度是针对预测结果的准确性进行衡量的一个指标,它定义为预测为正例(即预测为目标存在)中真正正例的比例。

    • 公式:
      在这里插入图片描述

    • 其中,TP(True Positives)是正确预测为正例的数量,FP(False Positives)是错误预测为正例的数量。

  2. Recall(召回率):

    • 召回率衡量的是模型检测到所有实际正例的能力,即预测为正例的样本占所有实际正例的比例。

    • 公式:
      在这里插入图片描述

    • 其中,FN(False Negatives)是错误预测为负例(即漏检)的数量。

  3. mAP50(平均精度,Mean Average Precision at Intersection over Union 0.5):

    • mAP50是目标检测中一个非常重要的指标,它衡量的是模型在IoU(交并比)阈值为0.5时的平均精度。IoU是一个衡量预测边界框与真实边界框重叠程度的指标。
    • mAP50通常在多个类别上计算,然后取平均值,得到整体的平均精度。
    • 计算方法:对于每个类别,首先计算在IoU阈值为0.5时的精度-召回率曲线(Precision-Recall Curve),然后计算曲线下的面积(AUC),最后对所有类别的AUC取平均值。

这三个指标共同提供了对目标检测模型性能的全面评估:

  • 精确度(Box_P)关注预测的准确性,即减少误检(FP)
  • 召回率(Box_R)关注检测的完整性,即减少漏检(FN)
  • mAP50提供了一个平衡精确度和召回率的指标,同时考虑了模型在不同类别上的表现。

在实际应用中,根据具体需求,可能会更侧重于精确度或召回率,例如在需要减少误报的场合,可能会更重视精确度;而在需要确保所有目标都被检测到的场合,可能会更重视召回率。mAP50作为一个综合指标,能够帮助研究者和开发者平衡这两个方面,选择最合适的模型。

  1. mAP50-95:
  • 这是衡量目标检测模型在不同IoU阈值下性能的指标。IoU是预测的边界框与真实边界框之间的重叠程度,mAP50-95计算了从IoU为0.5到0.95的范围内,模型的平均精度。
  • 精度-召回率曲线在不同的IoU阈值上绘制,然后计算曲线下的面积(AUC),最后取这些AUC的平均值,得到mAP50-95。
  • 这个指标反映了模型在不同匹配严格度下的性能,对于评估模型在实际应用中的泛化能力非常重要。
  1. F1分数:
    • 这是精确度和召回率的调和平均数,能够平衡两者的影响,是一个综合考虑精确度和召回率的指标。

    • 公式:
      在这里插入图片描述

    • 当精确度和召回率差距较大时,F1分数能够提供一个更全面的模型性能评估。

2. 模型训练过程对比

YOLOv8n-obb、YOLO11n-obb这4种模型的训练过程损失曲线与性能曲线如下。
训练过程的损失曲线对比如下:
在这里插入图片描述

训练过程中的精确度(Precision)、召回率(Recall)、平均精确度(Mean Average Precision, mAP)等参数的对比如下:
在这里插入图片描述

直观的从曲线上看,2种模型在模型精度上看,差别不是很大。下面对具体的性能数值进行详细分析。

3.各模型性能评估

YOLOv8n、YOLO11n这3种模型训练完成后,我们可以通过验证集对各个模型分别进行性能评估。
YOLOv8n模型在验证集上的性能评估结果如下:
在这里插入图片描述

表格列说明:

Class:表示模型的检测类别名称;
Images:表示验证集图片数目;
Instances:表示在所有图片中目标数;
P:表示精确度Precison;
R:表示召回率Recall;
mAP50:表示IoU(交并比)阈值为0.5时的平均精度。
mAP50-95:表示从IoU为0.5到0.95的范围内【间隔0.05】,模型的平均精度。

表格行说明:

第一行all,除Instances是所有类别目标数之和,其他参数表示所有类别对应列参数的平均值
其他行,表示每一个类别对应参数的值。

YOLO11模型在验证集上的性能评估结果如下:
在这里插入图片描述

4.模型总体性能对比

下面我们从总体的平均指标上对YOLOv5n、YOLOv8n、YOLOv10n、YOLO11n这4种模型进行对比分析。
下表是YOLOv5n、YOLOv8n、YOLOv10n、YOLO11n这4不同模型目标检测结果的整体性能平均指标对比情况:

Model Precision Recall mAP50 mAP50-95 F1-score
YOLOv8n 91.90 85.40 90.20 72.90 88.50
YOLO11n 91.90 84.80 90.00 72.90 88.20

为了方便更加直观的查看与对比各个结果,同样我们将表格绘制成图表的形式进行分析。
在这里插入图片描述

从上述对比数据中,我们可以看出:
从各项性能评估指标上看,YOLOv8n-obb与YOLOv11n-obb相差不大。YOLOv8n-obb在召回率Recall、mAP50与F1-score指标上略优于YOLOv11n-obb。

四、可视化系统制作

基于上述训练出的目标检测模型,为了给此检测系统提供一个用户友好的操作平台,使用户能够便捷、高效地进行检测任务。博主基于Pyqt5开发了一个可视化的系统界面,通过图形用户界面(GUI),用户可以轻松地在图片、视频和摄像头实时检测之间切换,无需掌握复杂的编程技能即可操作系统。【系统详细展示见第一部分内容】

Pyqt5详细介绍

关于Pyqt5的详细介绍可以参考之前的博客文章:《Python中的Pyqt5详细介绍:基本机构、部件、布局管理、信号与槽、跨平台》,地址:

https://a-xu-ai.blog.csdn.net/article/details/143273797

系统制作

博主基于Pyqt5框架开发了此款遥感视角船只智能检测系统即文中第一部分的演示内容,能够很好的支持图片、视频及摄像头进行检测,同时支持检测结果的保存

通过图形用户界面(GUI),用户可以轻松地在图片、视频和摄像头实时检测之间切换,无需掌握复杂的编程技能即可操作系统。这不仅提升了系统的可用性和用户体验,还使得检测过程更加直观透明,便于结果的实时观察和分析。此外,GUI还可以集成其他功能,如检测结果的保存与导出、检测参数的调整,从而为用户提供一个全面、综合的检测工作环境,促进智能检测技术的广泛应用。
在这里插入图片描述

关于该系统涉及到的完整源码、UI界面代码、数据集、训练代码、训练好的模型、测试图片视频等相关文件,均已打包上传,感兴趣的小伙伴可以通过下载链接自行获取。


【获取方式】

关注末尾名片VX,发送【源码】获取下载方式
本文涉及到的完整全部程序文件:包括python源码、数据集、训练好的结果文件、训练代码、UI源码、测试图片视频等(见下图),获取方式见文末:
在这里插入图片描述

注意:该代码基于Python3.9开发,运行界面的主程序为MainProgram.py,其他测试脚本说明见上图。为确保程序顺利运行,请按照程序运行说明文档txt配置软件运行所需环境。

Logo

DAMO开发者矩阵,由阿里巴巴达摩院和中国互联网协会联合发起,致力于探讨最前沿的技术趋势与应用成果,搭建高质量的交流与分享平台,推动技术创新与产业应用链接,围绕“人工智能与新型计算”构建开放共享的开发者生态。

更多推荐