YOLO11 工业视觉 AI 实战手册

从零搭建目标检测系统 · 疫苗智能识别与分拣产线落地指南

基于 AVITS 5.0Plus 全自动疫苗智能传输系统 · 60 种疫苗盒子无序识别 + 机械手抓取

YOLO11 (Ultralytics) 3D 视觉 + 协作臂 ≥900 盒/小时 v2.0 · 20 章完整版

目录

A. 入门准备
  1. 第 1 章 · 概述:YOLO11 是什么
  2. 第 2 章 · 硬件设备要求 NEW
  3. 第 3 章 · 安装与环境配置
  4. 第 4 章 · 快速开始(5 分钟上手)
B. 数据准备
  1. 第 5 章 · 照片素材采集要求 NEW
  2. 第 6 章 · 拍摄设备与拍摄环境 NEW
  3. 第 7 章 · 数据标注规范 NEW
  4. 第 8 章 · 自动标注工具 NEW
  5. 第 9 章 · 数据集管理与配置
C. 核心使用
  1. 第 10 章 · 模型选型指南
  2. 第 11 章 · 五大任务详解
  3. 第 12 章 · 模型训练详解
  4. 第 13 章 · 推理与预测
  5. 第 14 章 · 模型导出与部署
  6. 第 15 章 · 目标跟踪
  7. 第 16 章 · CLI 命令行完整参考
D. 进阶优化
  1. 第 17 章 · 超参数调优
  2. 第 18 章 · 社区实战技巧
E. 问题与支持
  1. 第 19 章 · 故障排查手册
  2. 第 20 章 · 参考资源与社区

按你的角色选择起点

🔰
AI 初学者
第 2 章(硬件)开始,顺序阅读
🔧
有经验的工程师
跳到第 10 章(模型选型),按需查阅
🎯
已有数据集
直接到第 12 章(训练)开始训练
🚨
遇到报错
直接到第 19 章(故障排查)

第 1 章 · 概述 板块 A · 入门准备

YOLO11 是 Ultralytics 于 2024 年 9 月发布的最新一代 YOLO 模型,在检测精度、推理速度和模型效率三方面取得了全新平衡。相比 YOLOv8,YOLO11 参数量更少、精度更高。

核心改进

支持的任务

🎯 目标检测

识别目标位置和类别,输出边界框 + 类别 + 置信度

🎭 实例分割

像素级目标分割,输出每个实例的精确轮廓掩码

🏷️ 图像分类

整图分类,判断图像属于哪个类别

🦴 姿态估计

人体关键点检测,输出 17 个骨骼点坐标

📐 旋转目标 (OBB)

带角度的旋转边界框,适合遥感、文档等场景

🔍 目标跟踪

视频中的多目标跟踪,支持 BoT-SORT 和 ByteTrack

第 2 章 · 硬件设备要求 NEW

GPU 显存需求(训练)

以 batch=16、imgsz=640 为基准,batch 减半显存需求约减 40%。

模型最低显存推荐显存推荐显卡适合场景
yolo11n4 GB6 GBRTX 3060快速验证、边缘设备
yolo11s6 GB8 GBRTX 3070轻量部署
yolo11m8 GB12 GBRTX 3080 / 4070通用(最佳性价比)
yolo11l10 GB16 GBRTX 4080 / A4000高精度
yolo11x16 GB24 GBRTX 4090 / A5000最高精度、服务器

其他硬件

组件最低要求推荐配置说明
CPU4 核8 核+影响数据预处理速度
内存16 GB32 GB+cache=True 需更多 RAM
硬盘HDDNVMe SSD数据加载瓶颈关键
电源550W750W+高端 GPU 功耗大

没有独显?替代方案

Google Colab(免费)

提供 T4 GPU(16GB 显存),适合小规模实验。限制:运行时间 12h,断线后数据丢失。

Kaggle Notebooks(免费)

提供 P100 GPU(16GB),每周 30 小时配额。适合训练中等数据集。

GPU 检测代码

import torch
print(f"PyTorch: {torch.__version__}")
print(f"CUDA: {torch.cuda.is_available()}")
if torch.cuda.is_available():
    print(f"GPU: {torch.cuda.get_device_name(0)}")
    print(f"显存: {torch.cuda.get_device_properties(0).total_mem / 1024**3:.1f} GB")
➡ 下一步: 第 3 章 · 安装与环境配置

第 3 章 · 安装与环境配置

安装步骤

1
创建虚拟环境
python -m venv D:\yolo11\venv
D:\yolo11\venv\Scripts\activate
2
安装 ultralytics
pip install ultralytics
3
验证安装
yolo checks

Conda 安装

conda create -n yolo11 python=3.11 -y
conda activate yolo11
conda install pytorch torchvision pytorch-cuda=12.1 -c pytorch -c nvidia
pip install ultralytics

Windows 用户注意

➡ 下一步: 下载预训练模型

模型下载与 GitHub 仓库 快速获取

GitHub 官方仓库

https://github.com/ultralytics/ultralytics

克隆仓库(源码安装)

git clone https://github.com/ultralytics/ultralytics.git

预训练模型权重下载

所有权重托管在 GitHub Releases,点击复制链接后用浏览器或 wget/curl 下载:

yolo11n.pt 5.4 MB
Nano · 2.6M 参数 · mAP 39.5 · 边缘设备
https://github.com/ultralytics/assets/releases/download/v8.3.0/yolo11n.pt
yolo11s.pt 18.4 MB
Small · 9.4M 参数 · mAP 47.0 · 轻量部署
https://github.com/ultralytics/assets/releases/download/v8.3.0/yolo11s.pt
yolo11m.pt 38.8 MB
Medium · 20.1M 参数 · mAP 51.5 · 推荐通用
https://github.com/ultralytics/assets/releases/download/v8.3.0/yolo11m.pt
yolo11l.pt 49 MB
Large · 25.3M 参数 · mAP 53.4 · 高精度
https://github.com/ultralytics/assets/releases/download/v8.3.0/yolo11l.pt
yolo11x.pt 109.3 MB
Extra · 56.9M 参数 · mAP 54.7 · 最高精度
https://github.com/ultralytics/assets/releases/download/v8.3.0/yolo11x.pt

分割 / 姿态 / 分类 / OBB 变体

任务模型名下载链接(点击复制按钮)
分割yolo11m-seg.pt
https://github.com/ultralytics/assets/releases/download/v8.3.0/yolo11m-seg.pt
姿态yolo11m-pose.pt
https://github.com/ultralytics/assets/releases/download/v8.3.0/yolo11m-pose.pt
分类yolo11m-cls.pt
https://github.com/ultralytics/assets/releases/download/v8.3.0/yolo11m-cls.pt
旋转框yolo11m-obb.pt
https://github.com/ultralytics/assets/releases/download/v8.3.0/yolo11m-obb.pt

命令行批量下载(一键复制)

PowerShell(Windows)

@("yolo11n","yolo11s","yolo11m","yolo11l","yolo11x") | ForEach-Object { Invoke-WebRequest "https://github.com/ultralytics/assets/releases/download/v8.3.0/$_.pt" -OutFile "D:\yolo11\$_.pt" }

Linux / macOS (bash)

for m in yolo11n yolo11s yolo11m yolo11l yolo11x; do wget https://github.com/ultralytics/assets/releases/download/v8.3.0/${m}.pt -O ${m}.pt; done

Python(自动下载)

from ultralytics import YOLO; model = YOLO("yolo11m.pt") # 首次运行自动下载

HuggingFace 镜像

https://huggingface.co/Ultralytics/YOLO11

GitHub 下载慢时可从 HuggingFace 获取模型文件。

➡ 下一步: 第 4 章 · 快速开始

第 4 章 · 快速开始(5 分钟上手)

Python API

from ultralytics import YOLO

# 加载预训练模型
model = YOLO(r"D:\yolo11\yolo11n.pt")

# 推理
results = model("https://ultralytics.com/images/bus.jpg")

# 显示 & 保存
results[0].show()
results[0].save(filename="result.jpg")

CLI 命令行

# 推理
yolo predict model=D:\yolo11\yolo11n.pt source="image.jpg"

# 训练
yolo train model=D:\yolo11\yolo11n.pt data=coco8.yaml epochs=100

# 验证
yolo val model=D:\yolo11\yolo11n.pt data=coco8.yaml

# 导出
yolo export model=D:\yolo11\yolo11n.pt format=onnx
➡ 下一步: 第 5 章 · 照片素材采集要求(准备训练数据)

第 5 章 · 照片素材采集要求 NEW · 板块 B · 数据准备

基本格式

要求说明
格式JPG、PNG、BMP、TIFF、WEBP
色彩模式RGB(不支持 CMYK)
尺寸不限,训练时自动缩放到 imgsz(默认 640x640)
文件名英文/数字,避免中文和特殊字符

质量与数量基准

维度最低要求推荐
每类数量100-300 张1000+ 张
清晰度目标可辨认目标区域 > 32x32 像素
多样性3+ 种角度/光照覆盖实际全部场景
负样本5%10%(无目标背景图)
类别均衡差异 < 10 倍各类数量接近

常见数据缺陷 vs 后果

缺陷后果解决方案
图片模糊模型学不到特征删除过于模糊的图
背景单一换场景就失效多场景采集
目标太小 (<16px)漏检率高增大 imgsz 或裁剪放大
数据量不够严重过拟合数据增强 + 预训练权重
类别不均衡少数类检测差过采样 + Focal Loss

一句话原则

数据质量 > 数据数量。100 张高质量标注胜过 1000 张粗糙标注。

➡ 下一步: 第 6 章 · 拍摄设备与拍摄环境

第 6 章 · 拍摄设备与拍摄环境 NEW

★ 黄金原则

部署时用什么设备采集图像,训练就用什么设备拍摄。环境越贴近实际部署场景,模型效果越好。

设备选择

设备是否可用适合场景
手机✅ 完全够用通用、快速采集
网络摄像头实时监控部署
工业相机工厂/产线质检
监控摄像头安防,直接截取视频帧
无人机遥感/俯拍巡检

分辨率建议

场景建议分辨率原因
通用1080p (1920x1080)缩放到 640x640 完全够用
小目标检测2K-4K缩放后小目标仍有足够像素
实时视频720p-1080p与推理输入匹配

环境覆盖矩阵

尽量在训练数据中覆盖以下条件的组合:

维度应覆盖的变化
光照强光 / 顺光 / 逆光 / 阴天 / 夜间 / 室内灯光 / 混合光源
背景简单(纯色) + 复杂(杂乱) + 多个不同地点
天气/季节晴天 / 阴天 / 雨天 / 雾天(户外场景)
拍摄角度正面 / 侧面 / 俯视 / 仰视
拍摄距离近景(目标占 50%+) 到 远景(目标 <5%)
遮挡程度包含部分遮挡 (30-70%) 的样本

典型部署场景拍摄建议

部署场景拍摄建议
工厂缺陷检测用产线同款相机、同距离、同打光
交通监控从监控摄像头直接截帧,各时段覆盖
仓库盘点与实际货架距离一致,包含密集堆叠
无人机巡检同飞行高度、同相机参数
手机 App用目标用户手机型号,手持自然抖动

常见误区

❌ 错误做法✅ 正确做法
全部用单反高清近拍用实际部署设备拍摄
只拍完美光照条件覆盖各种光照
所有图片同一角度多角度多距离
背景全部干净包含真实杂乱背景
只拍完整目标加入部分遮挡样本
用网图替代真实场景图现场采集为主,网图仅补充
➡ 下一步: 第 7 章 · 数据标注规范

第 7 章 · 数据标注规范 NEW

YOLO 标签格式

每张图片对应一个同名 .txt 文件,每个目标一行:

# 格式: class_id  center_x  center_y  width  height
# 所有坐标归一化到 [0, 1]
0 0.4531 0.6250 0.1875 0.3125
1 0.7344 0.3750 0.0938 0.1250

标注工具对比

工具类型特点导出格式适合
LabelImg本地 GUI简单免费YOLO TXT / VOC XML个人小批量
Roboflow在线平台自带增强和版本管理所有主流格式快速上手
Label StudioWeb (开源)支持多种任务YOLO / COCO / VOC中大型团队
CVATWeb (开源)支持视频逐帧标注YOLO / COCO / VOC视频数据

标注质量检查清单

➡ 下一步: 第 8 章 · 自动标注工具

第 8 章 · 自动标注工具 NEW

8.1 X-AnyLabeling(推荐 · GUI)

最适合不想写代码的用户

内置 100+ AI 模型(SAM、YOLO11、Grounding DINO),GUI 界面一键自动标注,人工微调后直接导出 YOLO 格式。安装约 500MB。

pip install x-anylabeling
x-anylabeling  # 启动 GUI

8.2 Grounding DINO + SAM(文字描述标注)

输入文字描述(如 "cat, dog"),自动定位目标 + 生成分割掩码,零样本、无需预训练。适合新类别快速冷启动。

# 文字描述 → 自动检测框 → 分割掩码 → YOLO 标签
# "person, car, bicycle" → 全自动生成标注

8.3 Autodistill(批量流水线)

大模型标注 → 自动训练小模型,适合大批量无人值守标注。

from autodistill_grounded_sam import GroundedSAM
from autodistill.detection import CaptionOntology

base_model = GroundedSAM(
    ontology=CaptionOntology({
        "person": "person",
        "car": "car",
    })
)
base_model.label("./images", extension=".jpg")

工具对比矩阵

工具易用性精度速度GPU 需求适合规模
X-AnyLabeling⭐⭐⭐⭐⭐ GUI可选个人/小团队
Grounding DINO+SAM⭐⭐⭐ 代码最高需要新类别冷启动
Autodistill⭐⭐⭐ 代码批量快需要大批量自动化
CVAT (内置 AI)⭐⭐⭐⭐ Web可选团队协作
➡ 下一步: 第 9 章 · 数据集管理与配置

第 9 章 · 数据集管理与配置

目录结构

my_dataset/
├── images/
│   ├── train/          # 训练图片
│   │   ├── img001.jpg
│   │   └── img002.jpg
│   └── val/            # 验证图片
│       ├── img101.jpg
│       └── img102.jpg
├── labels/
│   ├── train/          # 训练标签 (.txt)
│   │   ├── img001.txt
│   │   └── img002.txt
│   └── val/
│       ├── img101.txt
│       └── img102.txt
└── data.yaml           # 数据集配置

data.yaml 配置文件

# my_dataset/data.yaml
path: D:/datasets/my_dataset  # 数据集根目录(用正斜杠)
train: images/train
val: images/val
test: images/test              # 可选

# 类别定义
names:
  0: person
  1: car
  2: bicycle
  3: dog

Windows 路径注意

data.yaml 中路径使用 / 而非 \。反斜杠会被 YAML 解析器当作转义字符。

➡ 下一步: 第 10 章 · 模型选型指南(开始选择模型)

第 10 章 · 模型选型指南 板块 C · 核心使用

检测模型性能对比

yolo11n
Nano · 边缘设备
参数量2.6M
mAP50-9539.5
推理速度1.5ms
文件大小5.4 MB
yolo11s
Small · 轻量部署
参数量9.4M
mAP50-9547.0
推理速度2.5ms
文件大小18.4 MB
yolo11l
Large · 高精度
参数量25.3M
mAP50-9553.4
推理速度6.2ms
文件大小49 MB
yolo11x
Extra · 最高精度
参数量56.9M
mAP50-9554.7
推理速度11.3ms
文件大小109.3 MB

选型决策树

第 11 章 · 五大任务详解

11.1 目标检测

from ultralytics import YOLO
model = YOLO("yolo11m.pt")
results = model("street.jpg")

for r in results:
    for box in r.boxes:
        cls = int(box.cls[0])
        conf = float(box.conf[0])
        xyxy = box.xyxy[0].tolist()
        print(f"{model.names[cls]}: {conf:.2f} at {xyxy}")

11.2 实例分割

model = YOLO("yolo11m-seg.pt")
results = model("street.jpg")
for r in results:
    if r.masks is not None:
        for mask in r.masks.data:
            binary = mask.cpu().numpy()  # shape=(H,W), 0/1

11.3 图像分类

model = YOLO("yolo11m-cls.pt")
results = model("cat.jpg")
probs = results[0].probs
print(probs.top5)      # Top-5 类别索引
print(probs.top5conf)  # Top-5 置信度

11.4 姿态估计

model = YOLO("yolo11m-pose.pt")
results = model("person.jpg")
for r in results:
    if r.keypoints is not None:
        xy = r.keypoints.xy      # (N, 17, 2)
        conf = r.keypoints.conf  # (N, 17)

11.5 旋转目标检测 (OBB)

model = YOLO("yolo11m-obb.pt")
results = model("aerial.jpg")
for r in results:
    if r.obb is not None:
        xywhr = r.obb.xywhr  # cx, cy, w, h, 弧度角

第 12 章 · 模型训练详解

基本训练

from ultralytics import YOLO
model = YOLO(r"D:\yolo11\yolo11m.pt")

results = model.train(
    data="my_dataset.yaml",
    epochs=100,
    imgsz=640,
    batch=16,
    device=0,
    workers=8,
    project="runs/train",
    name="my_experiment",
)

核心训练参数

参数默认值说明
epochs100训练总轮数
batch16批大小,-1 自动选择
imgsz640输入尺寸(32 的倍数)
lr00.01初始学习率
optimizerautoSGD / Adam / AdamW / RMSProp
patience100早停(无提升即停止)
freezeNone冻结前 N 层
resumeFalse从中断处继续
ampTrue混合精度训练
cacheFalse缓存图像加速
close_mosaic10最后 N 轮关闭 Mosaic

数据增强参数

参数默认说明
hsv_h / hsv_s / hsv_v0.015 / 0.7 / 0.4色相/饱和度/明度增强
degrees0.0旋转角度
translate / scale0.1 / 0.5平移/缩放
fliplr / flipud0.5 / 0.0左右/上下翻转概率
mosaic / mixup1.0 / 0.0Mosaic / MixUp 概率
erasing0.4随机擦除概率

恢复 & 多 GPU 训练

# 恢复训练
model = YOLO("runs/train/exp/weights/last.pt")
model.train(resume=True)

# 多 GPU
model.train(data="coco.yaml", epochs=100, device=[0, 1, 2, 3])

验证与评估

model = YOLO("runs/train/exp/weights/best.pt")
metrics = model.val(data="my_dataset.yaml", plots=True)

print(f"mAP50:    {metrics.box.map50:.4f}")
print(f"mAP50-95: {metrics.box.map:.4f}")
print(f"Precision: {metrics.box.mp:.4f}")
print(f"Recall:    {metrics.box.mr:.4f}")

第 13 章 · 推理与预测

支持的输入源

类型示例
图片"image.jpg" / "images/*.jpg"
视频"video.mp4"
摄像头0
RTSP 流"rtsp://..."
屏幕截图"screen"
NumPy / PIL / TensorPython 对象

推理参数

results = model.predict(
    source="image.jpg",
    conf=0.25,          # 置信度阈值
    iou=0.7,           # NMS IoU 阈值
    imgsz=640,
    half=True,          # FP16 推理
    max_det=300,
    classes=[0, 2],     # 只检测特定类别
    save=True,
    stream=True,        # 流式处理(节省内存)
)

结果解析

for r in results:
    print(r.orig_shape)  # 原图尺寸
    print(r.speed)       # 各阶段耗时
    boxes = r.boxes
    print(boxes.xyxy)    # [x1, y1, x2, y2]
    print(boxes.conf)    # 置信度
    print(boxes.cls)     # 类别
    annotated = r.plot() # 返回标注后的 BGR 图像

第 14 章 · 模型导出与部署

导出格式一览

格式参数加速倍率适用平台
ONNXformat="onnx"~3x CPU通用、跨平台
TensorRTformat="engine"~5x GPUNVIDIA GPU
OpenVINOformat="openvino"~3x CPUIntel CPU/iGPU
CoreMLformat="coreml"-Apple 设备
TFLiteformat="tflite"-Android/嵌入式
NCNNformat="ncnn"-移动端 (ARM)

导出示例

model = YOLO(r"D:\yolo11\yolo11m.pt")

# ONNX
model.export(format="onnx", dynamic=True, simplify=True)

# TensorRT FP16
model.export(format="engine", half=True)

# 导出后直接使用
onnx_model = YOLO("yolo11m.onnx")
results = onnx_model("image.jpg")  # 与 .pt 用法完全一致

第 15 章 · 目标跟踪

model = YOLO(r"D:\yolo11\yolo11m.pt")
results = model.track(
    source="video.mp4",
    tracker="botsort.yaml",  # 或 "bytetrack.yaml"
    persist=True,
    show=True,
)

for r in results:
    if r.boxes.id is not None:
        ids = r.boxes.id.int().tolist()
        print(f"跟踪 ID: {ids}")
跟踪器特点适用场景
BoT-SORT高精度、低 ID 切换、支持 ReID需要稳定 ID
ByteTrack速度快、低误检利用实时性要求高

第 16 章 · CLI 命令行完整参考

# 基本语法
yolo <TASK> <MODE> [ARGS...]
# TASK: detect, segment, classify, pose, obb
# MODE: train, val, predict, export, track, benchmark

# ===== 常用命令速查 =====

# 推理
yolo predict model=yolo11n.pt source="image.jpg" conf=0.25
yolo predict model=yolo11m.pt source="video.mp4" save=True
yolo predict model=yolo11n.pt source=0  # 摄像头

# 训练
yolo train model=yolo11n.pt data=coco8.yaml epochs=100 imgsz=640
yolo train model=yolo11m.pt data=custom.yaml batch=8 device=0,1

# 验证
yolo val model=runs/train/exp/weights/best.pt data=custom.yaml

# 导出
yolo export model=yolo11m.pt format=onnx dynamic=True
yolo export model=yolo11m.pt format=engine half=True

# 跟踪
yolo track model=yolo11m.pt source="video.mp4" tracker=bytetrack.yaml

# 基准测试
yolo benchmark model=yolo11n.pt imgsz=640

# 系统检查
yolo checks
yolo settings

第 17 章 · 超参数调优 板块 D · 进阶优化

自动调参

model = YOLO("yolo11n.pt")
result = model.tune(
    data="coco8.yaml",
    epochs=30,
    iterations=300,
    optimizer="AdamW",
)

场景化调优策略

场景建议调整
小目标检测差增大 imgsz (640→1280);增加 scale 增强
训练过拟合增加增强 (mosaic, mixup);减小模型规格
训练欠拟合增大模型 (n→s→m);增加 epochs
推理速度慢减小 imgsz;使用更小模型;导出 TensorRT
类别不平衡过采样少数类;调整 class weights
标注噪声大增大 label_smoothing (0.0→0.1)

第 18 章 · 社区实战技巧

训练技巧

  • 先小后大:用 yolo11n 验证 pipeline,再换大模型
  • 冻结训练:小数据集先 freeze=10 训练 head
  • 关闭 Mosaic:最后 10 轮关闭可提升 1-2% mAP
  • 缓存加速:cache=True 大幅加速数据加载

部署技巧

  • TensorRT FP16:几乎无精度损失,速度翻倍
  • 动态 batch:ONNX 导出开 dynamic=True
  • INT8 校准:500-1000 张真实样本,精度损失 <1%
  • NMS 优化:部署时可提高 conf 减少后处理

第 19 章 · 故障排查手册 板块 E · 问题与支持

CUDA out of memory(显存不足)

原因:GPU 显存不足以容纳当前 batch。

解决:减小 batch (16→8→4→2);减小 imgsz;使用更小模型;设置 batch=-1 自动调节。

训练 loss 不下降

原因:学习率过大、数据集标注错误、data.yaml 路径不对。

解决:检查标注正确性;降低 lr0;确认路径用正斜杠;用 coco8 内置数据集测试排除代码问题。

mAP 很低

原因:数据不足、标注质量差、模型太小。

解决:增加数据量;检查标注框是否紧贴目标;增加 epochs;使用更大模型。

推理无检测结果

原因:conf 阈值过高、模型未训练/未收敛。

解决:设置 conf=0.1 测试;确认模型训练完整(检查 best.pt 是否存在)。

No labels found(找不到标签)

原因:images/ 和 labels/ 目录结构不对称,或文件名不一致。

解决:确保两目录结构镜像对称,图片和标签仅扩展名不同。

TensorRT 导出失败

原因:CUDA / cuDNN / TensorRT 版本不兼容。

解决:确认三者版本兼容;先导出 ONNX 验证成功后再转 TensorRT。

Windows 多线程 DataLoader 报错

原因:Windows 的 multiprocessing 限制。

解决:设置 workers=0;或确保代码在 if __name__ == '__main__' 中运行。

图片加载失败

原因:图片损坏、路径含中文/特殊字符。

解决:检查图片完整性;路径全部使用英文;避免空格和特殊字符。

第 20 章 · 参考资源与社区

官方资源

社区教程

自动标注工具

常用数据集

数据集类别图片量用途
COCO 201780118K + 5K通用检测基准
VOC 20122011K经典入门
Objects3653652M大规模预训练
Open Images V76001.9M最大开源检测集
DOTA v21811K遥感旋转目标