最近心血来潮,朋友勾的我学大模型,可是这个赛道太卷了呀,rag迟迟落不了地,微调这个事情自己又觉得太慢,至于chat部分我则完全不感兴趣。
帮朋友搞定了OpenWebUI的单点登录之后,兴趣缺缺。
突然翻到宇树机器人的3D扫描生成点云,对视觉识别这个事情上心了,感觉比rag好玩。
开始查资料,各种翻,读了大概三天文档,开干。
以上是碎碎念的背景。
————————————————————————————
视觉识别嘛,当然就绕不开yolo了,备注:网上基于yolo8的应用不少,据说yolo5对小物品的识别效果反而比yolo11好,暂且记下。
yolo官方文档如下:
快速入门:https://docs.ultralytics.com/zh/quickstart/
命令行cli界面:https://docs.ultralytics.com/zh/usage/cli/
YOLO 命令行界面 (CLI) 允许使用简单的单行命令,而无需Python 环境。CLI 不需要定制或Python 代码。您只需使用 yolo命令即可。
若要进行体验,而不需要工程化,使用yolo命令行即可,简直太开心了。
我又是个比较懒的人,不想使用本地环境安装python等就想快速体验,于是使用docker版进行体验。
开始,
先说我的环境,i7 老型号的think pad笔记本,32G内存。
第一步:安装 Docker Windows,不在此处赘述。
第二步:下载对应的镜像
docker pull ultralytics/ultralytics:latest
第三部:运行容器
guide里面有专门写怎么使用docker cpu / gpu,我只有cpu。
将测试图片放入D:\Bob\yolo\test\images,映射到容器的/d/Bob/yolo/test/images,
docker run -it --ipc=host -v D:\Bob\yolo\test\images:/d/Bob/yolo/test/images ultralytics/ultralytics:latest
接下来跑第一个官方demo了,
cd /d/Bob/yolo/test/images

yolo detect predict model=yolo11n.pt source='https://ultralytics.com/images/bus.jpg'
运行结果如下:

预测结果放到了容器内的/ultralytics/runs/detect/predict目录,可以看到该目录下有一个文件bus.jpg
从容器内将该文件拷贝到本地进行查看
docker cp lucid_northcutt:/ultralytics/runs/detect/predict/bus.jpg D:\Bob\yolo\test\results\bus.jpg
可以看到运行结果啦:
原图

结果图

运行了标准图片之后,接下来测试自己的图片
网图侵删

yolo detect predict model=yolo11n.pt source=1.jpg
Results saved to /ultralytics/runs/detect/predict2
拷贝,结果图如下:

yes...
跑批处理
yolo detect predict model=yolo11n.pt source=./*

拷贝至本地目录
docker cp lucid_northcutt:/ultralytics/runs/detect/predict5 D:\Bob\yolo\test\results\
本篇到此结束。
下一篇开始标注并训练模型吧。
浙公网安备 33010602011771号