YOLO-World安装使用
最新版本的YOLOv8框架已经集成支持YOLO-World模型,只要运行下面的命令行:
pip install ultralytics
安装完成以后就可以使用下面的代码完成测试:
from ultralytics import YOLOWorld
# Load a pretrained YOLOv8s-worldv2 model
model = YOLOWorld('yolov8s-worldv2.pt')
# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data='coco8.yaml', epochs=100, imgsz=640)
# Run inference with the YOLOv8n model on the 'bus.jpg' image
results = model('path/to/bus.jpg')
推荐使用v2版本的模型,因为它支持导出ONNX格式模型,可以直接部署。直接预测:
from ultralytics import YOLOWorld
# Initialize a YOLO-World model
model = YOLOWorld('yolov8s-worldv2.pt') # or select yolov8m/l-world.pt for different sizes
# Execute inference with the YOLOv8s-world model on the specified image
results = model.predict('path/to/image.jpg')
# Show results
results[0].show()
自定义对象检测模型生成与推理
构建自定义对象检测模型并保存:
model = YOLOWorld('yolov8s-worldv2.pt')
model.set_classes(["elephant, camel"])
model.save("elephant_camel_world.pt")
导出自定义对象检测模型为ONNX格式模型:
model = YOLO('elephant_camel_world.pt')
model.export(format="onnx", opset=12)
可以看出模型得到ONNX格式文件的输出格式是动态的
使用ONNX格式模型直接推理部署,基于VMDM模型部署框架,直接导入模型,开始推。我直接生成并导出了两种自定义对象检测模型,分别支持识别大象跟鸟类,运行结果如下:
本人测试发现,OpenVINO跟ONNXRUNTIME两个模型部署框架可以轻松推理导出ONNX格式YOLO-World的模型,但是OpenCV DNN无法加载。所以推荐使用OpenVINO跟ONNXRUNTIME两个模型部署框架来部署YOLO-World