一文带你了解时下最新的目标检测模型——YOLOv8

​译者| 朱先忠,审校 | 孙淑娟,YOLOv8是Ultralytics公司推出的基于对象检测模型的YOLO最新系列,它能够提供截至目前最先进的对象检测性能。,借助于以前的YOLO模型版本支持技术,YOLOv8模型运行得更快、更准确,同时为执行任务的训练模型提供了统一的框架,这包括:,在撰写本文时,Ultralytics的YOLOv8存储库中其实还有很多功能有待添加,这包括训练模型的整套导出功能等。此外,Ultralytics将计划在Arxiv上发布一篇相关的论文,将对YOLOv8与其他最先进的视觉模型进行比较。,Ultralytics为YOLO模型发布了一个全新的存储库(https://github.com/ultralytics/ultralytics)。该存储库被构建为用于训练对象检测、实例分割和图像分类模型的统一框架。,以下列举的是这个新版本的一些关键功能:,此外,YOLOv8也非常高效和灵活,它可以支持多种导出格式,而且该模型可以在CPU和GPU上运行。,一文带你了解时下最新的目标检测模型——YOLOv8,YOLOv8模型的每个类别中共有五个模型,以便共同完成检测、分割和分类任务。其中,YOLOv8 Nano是最快和最小的模型,而YOLOv8Extra Large(YOLOv8x)是其中最准确但最慢的模型。,YOLOv8这次发行中共附带了以下预训练模型:,下面,让我们来看看使用YOLOv8x进行检测和实例分割模型的输出效果,请参考下面的gif动画。,一文带你了解时下最新的目标检测模型——YOLOv8,为了充分发挥出YOLOv8的潜力,需要从存储库以及ultralytics包中安装相应的需求。,要安装这些需求,我们首先需要克隆一下该模型的存储库,命令如下:,接下来,安装需求配置文件:,在最新版本中,Ultralytics YOLOv8同时提供了完整的命令行界面(CLI)API和Python SDK,用于执行训练、验证和推理任务。,为了使用yolo命令行界面(CLI),我们需要安装ultralytics包,命令如下:,安装必要的软件包后,我们可以使用yolo命令访问YOLOv8 CLI。以下给出的是使用yolo CLI运行对象检测推断的命令行代码示例:,其中,task参数可以接受三个参数值:detect、classify和segment,分别对应于检测、分类和分段三种任务。类似地,mode参数可以有三个取值,分别是train、val或predict。此外,在导出训练模型时,我们也可以将mode参数指定为export。,有关所有可能的yolo CLI标志和参数,有兴趣的读者可参考链接https://docs.ultralytics.com/config/。,除了通过上面CLI方式使用YOLOv8外,我们还可以创建一个简单的Python文件,导入YOLO模块并执行我们选择的任务。,例如,在上述代码中首先在COCO128数据集上训练YOLOv8 Nano模型,然后在验证集上对其进行评估,最终对样本图像进行预测。,接下来,让我们通过yolo CLI方式来使用对象检测、实例分割和图像分类模型进行推断。,以下命令实现使用YOLOv8 Nano模型对视频进行检测。,该推断的运行硬件环境是在笔记本电脑GTX 1060 GPU上以几乎105 FPS的速度运行的,最终我们得到以下输出结果:,一文带你了解时下最新的目标检测模型——YOLOv8,使用YOLOv8 Nano模型进行检测推断,需要说明的是,YOLOv8 Nano模型在几帧内把猫和狗进行了混合。让我们使用YOLOv8 Extra Large模型对同一视频进行检测并检查输出。,注意:上面的YOLOv8 Extra Large模型在GTX 1060 GPU上以平均17 FPS的速度运行。,一文带你了解时下最新的目标检测模型——YOLOv8,使用YOLOv8超大模型进行检测推断,尽管这一次的误分类略有减少,但模型仍然在一些帧中进行了错误的检测。,使用YOLOv8实例分割模型运行推理同样是很简单的。我们只需要在上面的命令中更改一下任务和模型名称即可,结果如下:,因为实例分割与对象检测是结合在一起的,所以这一次运行时的平均FPS约为13。,一文带你了解时下最新的目标检测模型——YOLOv8,使用YOLOv8超大模型进行分割推断,分割图在输出中看起来很干净。即使当猫在最后几帧隐藏在块下时,模型也能够检测并分割它。,最后,由于YOLOv8已经提供了预训练的分类模型,让我们使用yolov8x-cls模型对同一视频进行分类推断。这是截止目前存储库提供的最大分类模型。,一文带你了解时下最新的目标检测模型——YOLOv8,使用YOLOv8超大模型进行分类推断,默认情况下,视频用模型预测的前5个类进行标注。在没有任何后期处理的情况下,标注部分直接使用了ImageNet类名。,可以看出,YOLOv8模型似乎比之前的YOLO模型表现更好;这不仅是相比于YOLOv5模型来说的,YOLOv8也优越于YOLOv7和YOLOv6模型。,一文带你了解时下最新的目标检测模型——YOLOv8,YOLOv8与其他YOLO模型性能相比。,由上图可以看出,与以640图像分辨率训练的其他YOLO模型相比,所有YOLOv8模型在参数数量相似的情况下具有更好的吞吐量。,接下来,让我们更为详细了解一下最新的YOLOv8模型与Ultralytics公司的YOLOv5模型的性能差异。下面几个表格显示了YOLOv8和YOLOv5之间的综合比较情况。,一文带你了解时下最新的目标检测模型——YOLOv8,YOLOv8模型与YOLOv5模型性能比较表,YOLOv8模型与YOLOv5模型对象检测性能比较情况见下表:,一文带你了解时下最新的目标检测模型——YOLOv8,YOLOv8模型与YOLOv5模型对象检测性能比较,YOLOv8模型与YOLOv5模型实例分段性能比较情况见下表:,一文带你了解时下最新的目标检测模型——YOLOv8,YOLOv8与YOLOv5实例分割模型性能比较,一文带你了解时下最新的目标检测模型——YOLOv8,YOLOv8与YOLOv5图像分类模型情况,整体来看,其实也很明显,最新的YOLOv8模型比YOLOv5要好得多,除了一种分类模型外。,下面给出的这张图像显示了YOLO目标检测模型的时间线以及YOLOv8的演变情况。,一文带你了解时下最新的目标检测模型——YOLOv8,YOLOv8目标检测模型的演变情况,YOLO对象检测的第一个版本,即YOLOv1,由Joseph Redmon等人于2015年发布。这是第一个产生SSD和所有后续YOLO模型的单级对象检测(SSD)模型。,YOLOv2,又称YOLO 9000,由YOLOv1的原作者约瑟夫·雷蒙提出。它改进了原来的YOLOv1模型——引入了锚盒(Anchor Box)的概念和更好的主干(即Darknet-19)。,2018年,约瑟夫·雷蒙和阿里·法哈迪公布了YOLOv3模型。其实,这不是一个架构上的飞跃,算是一份技术报告,但YOLO家族还是有了很大的进步。YOLOv3模型使用Darknet-53主干、残差连接,并使用更好的预训练和图像增强技术来实现改进。,YOLOv3之前的所有YOLO对象检测模型都使用C编程语言编写,并使用Darknet框架。但是,新手们发现很难遍历代码库并对模型进行微调。,于是,大约与YOLOv3模型发布的同时,Ultralytics发布了第一个使用PyTorch框架实现的YOLO(YOLOv3)。这个模型更为容易访问,也更容易用于转移学习领域。,发布YOLOv3模型后不久,约瑟夫·雷蒙离开了计算机视觉(Computer Vision)研究界。YOLOv4(Alexey等人)是最后一个用Darknet编写的YOLO模型。之后,又相继出现了其他许多的YOLO物体检测模型,例如缩放版YOLOv4、YOLOX、PP-YOLO、YOLOv6和YOLOv7代表了其中较为突出的一些模型。,在YOLOv3之后,Ultralytics还发布了YOLOv5,它比所有其他YOLO模型更好、更快、更易于使用。,截至目前(2023年1月),Ultralytics在Ultralytics存储库下发布了YOLOv8,这可能是迄今为止最好的YOLO模型。,一文带你了解时下最新的目标检测模型——YOLOv8,在本文中,我们探讨了YOLO模型的最新版本,即YOLOv8。其中,我们具体介绍了这款新模型的性能,以及软件包附带的命令行界面用法。除此之外,我们还对少数几个视频数据进行了推断展示。,在以后的文章中,我们还将在自定义数据集上对YOLOv8模型进行微调。,最后,如果您自己也在进行任何有关YOLOv8模型的实验,请在评论部分告诉我,朱先忠,51CTO社区编辑,51CTO专家博客、讲师,潍坊一所高校计算机教师,自由编程界老兵一枚。,​原文标题:Ultralytics YOLOv8: State-of-the-Art YOLO Models,作者:Sovit Rath​

文章版权声明

 1 原创文章作者:cmcc,如若转载,请注明出处: https://www.52hwl.com/19640.html

 2 温馨提示:软件侵权请联系469472785#qq.com(三天内删除相关链接)资源失效请留言反馈

 3 下载提示:如遇蓝奏云无法访问,请修改lanzous(把s修改成x)

 免责声明:本站为个人博客,所有软件信息均来自网络 修改版软件,加群广告提示为修改者自留,非本站信息,注意鉴别

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023年3月5日 上午12:00
下一篇 2023年3月7日 下午10:34