最新YOLO实现的火焰实时检测平台(Flask+SocketIO+HTML_CSS_JS)
摘要
本文面向火焰实时检测场景,基于 Flask + Flask-SocketIO/HTML/CSS/JS 构建可即开即用的Web 网页界面,集成 YOLOv5–YOLOv12(共 8 种) 检测算法;支持图片/视频/浏览器摄像头多源输入与即时双画面对比(原图/检测结果),提供进度控制(进度条、暂停/继续/停止)与同步双帧回放;内置Conf/IoU 调节、类别筛选、CSV 导出、带框结果一键下载、SQLite 入库与登录/注册(可跳过)的轻量账号体系;支持模型选择/权重上传与热切换,自动刷新类别配置并保持跨页会话一致。实验对比覆盖 mAP、F1、PR 曲线与训练曲线,并结合ONNX/TensorRT延迟评估,形成从准确率到时延的端到端指标看板;同时提供检测记录检索与高亮定位,便于批量复核与溯源。系统以PyTorch为后端,前后端通过 SocketIO 实时推送检测结果与统计信息,满足安防、林地、工厂等高时效场景的落地需求。文末提供完整工程与数据集下载链接。
讲解视频地址:基于深度学习的火焰检测系统(Web系统+完整项目分享+数据集+多YOLO模型)
YOLOv12-v11/v10/v9/v8/v7/v6/v5系统(八个模型,含说明论文)合集下载:https://mbd.pub/o/bread/YZWck55taQ==
说明论文下载:https://mbd.pub/o/bread/YZWck5twaA==
YOLOv12下载:https://mbd.pub/o/bread/YZWbmphuZw==
YOLOv11下载:https://mbd.pub/o/bread/YZWbm5lwZw==
YOLOv10下载:https://mbd.pub/o/bread/YZWbm5hrbQ==
YOLOv9下载:https://mbd.pub/o/bread/YZWbmp9rZg==
安装与教程文档:https://deeppython.feishu.cn/wiki/SKNpwOiwDisb1MkrdZTcZOLrnZf
@
1. 网页功能与效果
(1)登录注册:提供登录、注册与一次性跳过三种入口,跳过仅在当前会话生效并在超时后失效;口令哈希与基础风控保障账户安全与会话有效性。登录后载入个性化偏好与最近记录,便于延续上次任务的阈值与类别配置。

(2)功能概况:系统围绕“概览 → 图片/视频/摄像头检测 → 模型选择 → 导出视图”的动线组织,前后端以SocketIO实时推送结果与统计。支持左右等宽16:9自适应双画面对比、Conf/IoU调节、类别筛选、CSV导出与带框结果一键下载,满足从调参到批量复核的全链路需求。

(3)视频检测:提供同步双帧展示(原始帧/检测帧),配合进度条与暂停、继续、停止控制,确保逐帧核查与回放一致。浏览器端实时推理并支持缓冲导出为MP4,检测记录跨页共享,可一键复用历史阈值与筛选条件。

(4)更换模型:上传权重即可切换当前YOLO模型,类别面板与阈值范围同步刷新,无需重启服务;同时支持跨平台的路径规范与自动数据库迁移,保障持续可用。导出区集中管理各批次结果,支持按文件名高亮与批量下载,便于溯源与审计。

(5)概览界面:首页聚合近期任务、告警统计与性能指标(mAP/F1/延迟的最近值),并提供直达入口到图片/视频/摄像头检测与导出视图。最近记录支持关键字与时间筛选,CSV结果可行内预览与高亮定位,帮助博主快速定位异常样本与回归问题。

2. 绪论
2.1 研究背景与意义
火焰检测关系到园区安防、林地巡护与工业现场的早期预警与应急响应,其难点在于火焰/烟雾形态不规则、颜色与高温反光相近、目标尺寸随距离快速变化且常伴随烟尘遮挡,导致传统阈值或纹理方法易误报漏报 1。在实时视频流场景中,一阶段检测器以端到端单次前向的范式获得更低的系统时延与更高吞吐,较适合部署在前端/边缘侧的“毫秒级”告警链路 2。从工程落地看,基于 ONNX Runtime 的量化与算子优化、以及 NVIDIA TensorRT 的算子融合与 INT8/FP16 推理,可显著降低延迟并提升吞吐,为浏览器端的同步双帧可视化与参数联动提供稳定帧率支撑 16。以上特性与本平台(Flask+SocketIO+HTML/CSS/JS)的人机协同与可追溯导出结合,可构建“检测—复核—归档—反馈”的闭环,使模型在动态环境中持续进化 1。(jst.tsinghuajournals.com)
2.2 国内外研究现状
国际上目标检测历经两阶段与单阶段两大谱系:两阶段代表 Faster R-CNN 以 RPN 生成候选后精细分类定位,精度高但推理延迟相对较大 3;单阶段 Anchor-based(SSD)与 Focal Loss 推动的密集检测(RetinaNet)在前景—背景不均衡下取得速度—精度折中 4。Anchor-free 的 FCOS 以像素/中心点建模规避先验敏感性,简化超参并提升跨域迁移性 6。近年来,Transformer 检测器(DETR)以集合预测实现端到端训练,RT-DETR 通过高效混合编码器与不确定性最小化查询选择,首次在 T4 上实现 R50 53.1% AP 且 108 FPS 的实时表现,减少 NMS 带来的延迟瓶颈 10。(arXiv)
以 YOLO 系列为主线,YOLOv7 在实测 30+ FPS 档实现 56.8% AP 的实时 SOTA,强调训练策略与可训练 freebies 的系统性收益 8;Ultralytics YOLOv8 引入解耦头与 C2f 结构,完善 Anchor-free 实践 14;YOLOv9 提出 PGI 与 GELAN,在轻量与跨设备场景下提升梯度与特征利用效率 12;YOLOv10 以一致性分配实现端到端、NMS-free 推理,显著降低后处理延迟 13;最新 YOLO11 在数据、结构与训练流程层面迭代,面向多场景泛化与部署优化 15。面向火焰/烟雾这一域内任务,国内研究积极将轻量结构、SlimNeck、SAHI 等策略与 YOLOv8 等基线结合,兼顾小目标与复杂光照下的精度与速度 1。(arXiv)
代表性方法对比(节选)
| 方法 | 范式/家族 | 数据集 | 关键技术 | 典型指标* | 适用要点 |
|---|---|---|---|---|---|
| Faster R-CNN 3 | 两阶段 | COCO/VOC | RPN+共享特征 | 早期实现约 5 FPS@VGG16 | 精度强,延迟高,适合离线复核 |
| SSD 4 | 单阶段/Anchor | COCO/VOC | 多尺度默认框 | 实时可用 | 速度快,先验敏感 |
| FCOS 6 | 单阶段/Anchor-free | COCO | 每像素预测 | 44.7% AP(R101-64×4d) | 迁移友好,参数简洁 |
| YOLOX 7 | 单阶段/Anchor-free | COCO | 解耦头+SimOTA | L: 50.0 AP@68.9 FPS | 精度/速度均衡,工业友好 |
| PP-YOLOE 9 | 单阶段/Anchor-free | COCO | CSPRepRes+TAL | L: 51.4 mAP@78.1 FPS;TRT FP16 可至 149 FPS | 训练/部署一体化 |
| YOLOv7 8 | 单阶段/YOLO | COCO | 可训练 freebies | 56.8% AP@实时段 | 工程稳健、生态完善 |
| RT-DETR 11 | 端到端/Transformer | COCO | 高效混合编码器+UMQ | R50: 53.1% AP@108 FPS(T4) | NMS-free、端到端 |
| YOLOv10 13 | 单阶段/NMS-free | COCO | 端到端一致性分配 | 同级更低延迟 | 极简后处理、部署高效 |
| *注:指标来自论文/官方报告,不同硬件与实现会引起绝对数差异。(arXiv) |
在火焰领域的中文研究方面,改进 YOLOv8 的检测系统在复杂背景与小尺寸目标上取得更高 mAP 与更快 FPS;如引入 SlimNeck 与 SAHI 强化小目标检测与推理效率,或针对工业/林火场景设计通道注意与轻量骨干以抑制误检 1[19][20]。(jst.tsinghuajournals.com)
2.3 要解决的问题及其方案
围绕“YOLO 实时火焰检测平台(Flask+SocketIO+HTML/CSS/JS)”,本文拟解决四类核心问题:(1)准确性与实时性:在远距离小火点、强反光与高温背景下维持高召回且单卡实时;(2)环境适应与泛化:室内/室外/林地/夜间等域转移与光照变化下鲁棒;(3)网页端交互完整性:双画面对比、同步双帧回放、阈值与类别筛选、结果导出的一致性体验;(4)数据处理与存储安全:多源输入的缓存/异步、CSV 导出与 SQLite 入库、账号会话与溯源。针对性方案为:(1)以 YOLOv10/11/9/8 为主的轻量或 NMS-free 方案,结合多尺度训练、马赛克/混合增强、微标注精修与困难样本挖掘;(2)PyTorch 推理与 ONNX/TensorRT 加速协同,量化(INT8/FP16)与算子融合优化端到端时延 16;(3)SocketIO 流式推送实现“原始帧/检测帧”同步,Conf/IoU 联动与类别筛选,带框结果一键下载/CSV 导出;(4)登录/注册(可跳过)的会话管理与 SQLite/日志审计,保证跨页一致与可追溯导出 14。(ONNX Runtime)
2.4 博文贡献与组织结构
本文贡献体现在:(1)综合文献综述:从两阶段、Anchor/Anchor-free 到端到端 Transformer 及 YOLOv7–YOLOv11 的技术谱系,梳理适配火焰检测的小目标、长尾与实时性策略,并核对关键指标与部署要点 3813;(2)模型选择与优化:基于 YOLOv10/11/9/8 的结构与训练细节,结合数据增强、标签重分配与蒸馏/量化,给出适配不同算力与场景的配置;(3)美观友好的 Web 设计:实现左右等宽双画面对比、同步双帧回放、阈值与类别筛选、导出与溯源;(4)算法效果对比:统一评测 mAP、F1、PR 与训练曲线,并提供 ONNX/TensorRT 延迟;(5)完整工程与数据:提供可运行的 Flask+SocketIO 平台、SQLite/CSV 管道与数据集说明,便于复现实验与二次开发。正文后续章节将依序展开网页功能与效果、数据集处理、模型原理与设计、实验结果与分析、系统设计与实现与结论展望。(arXiv)
3. 数据集处理
本研究使用单类火焰数据集,共计 3893 张图像,按“训练/验证/测试”分别为 2725/780/388;为保证可重复性,随机划分固定种子设为 42,并在训练与验证集间避免同源视频的帧泄漏。标注采用 YOLO 文本格式,坐标为归一化的 \((c_x,c_y,w,h)\),类别仅含 fire(0),中文映射为“火焰”;图片来自室内外监控、林地巡护与城市环境等多域场景,涵盖白天/夜间、可见光/强反光、远近尺度与不同拍摄角度。为与后续网页端展示一致,数据目录按 images/labels 划分,并预留空类的负样本用于抑制误检。
Chinese_name = {'fire': "火焰"}

从已给样例可见,标注统计的成对分布在 \(c_x!\approx!0.5\) 附近略集中,\(c_y\) 在 0.3–0.6 范围较密;宽高直方图呈“小目标占比高、向大目标长尾”特征,且宽高相关性弱,说明尺度差异与视角变化显著。拼图浏览显示场景复杂:火团与高色温光源相混、小火点远距离成像、烟雾遮挡和运动模糊并存,且存在低清与强曝光帧,这些因素共同导致正负样本可分性下降与长尾问题突出。为降低数据噪声,先进行标签体检(越界框裁剪、退化框过滤、重复框合并、脏标删除),并以感知哈希去重相似图,统一分辨率与纵横比的 letterbox 规则,确保训练/验证与测试的分布稳定。

增强与清洗策略围绕“远距离小目标、强反光、遮挡与运动模糊”四类难点设计:训练期采用 Mosaic/RandomAffine 与多尺度缩放加强小目标可见性,MixUp/Copy-Paste 生成稀有组合提升长尾召回;HSV 抖动、随机曝光/对比度与少量高斯噪声覆盖光照与传感噪声变化;随机模糊与轻度运动拉伸模拟视频摄像头抖动;随机裁切与水平翻转提升形变与视角鲁棒性。验证与测试阶段仅保留尺度归一与 letterbox,不使用强增强以避免乐观偏置。为配合单类不均衡与难负样本,训练加载器启用难例挖掘的采样权重与类别先验重标定,并在元数据中记录场景标签(室内/室外/林地/城市、昼/夜)以便后续误检溯源与网页端“按条件筛选导出”。上述处理使得数据在统计上与实际部署环境对齐,为后续 YOLOv5–YOLOv12 的对比训练与 Web 实时演示提供稳定而可复用的基座。
4. 模型原理与设计
本文以“YOLOv12 风格”的单阶段、端到端目标检测范式为主线实现火焰实时检测:输入经轻量化骨干提取多尺度特征,颈部进行自顶向下与自底向上双向融合,解耦检测头分别完成分类与回归/目标性预测;默认采用 Anchor-free 表达以降低先验超参敏感性,并预留 NMS-free 训练与推理路径以减少后处理时延。针对火焰与暖色高光的类间相似、远距离小火点与烟雾遮挡的尺度与可见性问题,骨干使用分层残差/分组卷积与 C2f/Ghost 等轻量算子,颈部在金字塔融合中引入可学习的通道权重,检测头使用无锚点的分布式回归(DFL)与解耦分支,从结构设计上兼顾高召回与实时性。为稳定前端双画面对比的帧间一致性,推理侧默认启用批归一化折叠与半精度张量,并以统一的图像缩放与 letterbox 保持时空一致。
在结构细节上,骨干—颈部—检测头的协同围绕“抑制高光误检 + 强化小目标”展开。我们采用轻量通道注意力(以 SE/ECBAM 为例)在通道维上重标定显著性,其核心是对特征图 \(F!\in!\mathbb{R}^{C\times H\times W}\) 做全局池化并学习门控:$$\mathbf{s}=\sigma!\left(W_2,\delta(W_1,\mathrm{GAP}(F))\right),\quad \tilde{F}=F\odot \mathbf{s},$$其中 \(\mathrm{GAP}\) 为全局平均池化,\(\delta\) 为 ReLU,\(\sigma\) 为 Sigmoid,\(\odot\) 为逐通道乘法;该门控在强反光与大面积暖色背景下有助于压低伪火焰通道响应。颈部采用金字塔多尺度融合(FPN/PAN/可选 BiFPN),对低层的细粒度空间细节与高层的语义进行加权聚合;检测头使用解耦结构分别回归边界框与分类置信,并在回归分支用分布式回归提升亚像素定位精度。网络整体架构图如下图所示:

损失与任务建模方面,边界框采用 IoU 家族函数,以 \(\mathrm{IoU}=\frac{|B\cap G|}{|B\cup G|}\) 衡量预测框 \(B\) 与真值框 \(G\) 的重叠;在强形变火焰边界下,使用 CIoU/EIoU 增强几何约束:$$L_{\mathrm{CIoU}}=1-\mathrm{IoU}+\frac{\rho2(\mathbf{b},\mathbf{g})}{c2}+\alpha v,\quad v=\frac{4}{\pi2}\left(\arctan\frac{w_g}{h_g}-\arctan\frac{w_b}{h_b}\right)2,$$其中 \(\rho\) 为框中心距离,\(c\) 为最小外接对角线,\(w,h\) 分别为宽高;EIoU 在此基础上显式分解中心与尺度项以加速收敛。分类与目标性采用 Focal Loss 抑制易样本:$$\mathrm{FL}(p_t)=-\alpha(1-p_t)^\gamma\log p_t,$$其中 \(p_t\) 为正样本置信,\(\gamma\) 控制难例强调;回归侧采用分布式焦点损失(DFL)对离散边界位置建模,利用邻近两 bin 的软标签组合逼近连续坐标,从而在小火点上获得更细腻的定位。为减少后处理瓶颈,预留 NMS-free 端到端方案,通过匈牙利匹配将预测与真值按代价 $$\mathcal{C}=\lambda_{\mathrm{cls}},\mathrm{BCE}+\lambda_{\mathrm{box}},L_{\mathrm{IoU}}-\lambda_{\mathrm{obj}}\hat{o}$$ 进行一一指派;实际工程中可在 NMS 与 NMS-free 之间按设备与帧率目标切换。
训练与正则化遵循“稳态—高召回—可部署”的三原则。优化器选用 SGD(m) 或 AdamW 搭配余弦退火学习率:$$\eta_t=\eta_{\min}+\tfrac{1}{2}(\eta_{\max}-\eta_{\min})!\left(1+\cos\frac{\pi t}{T}\right),$$并配合 warmup、权重衰减与 EMA 权重以稳定早期震荡;正则化上使用随机深度、标签平滑与轻度 MixUp/Mosaic,在不破坏火焰纹理的前提下扩展分布。与任务难点对齐:为小火点与远距离火线,训练期启用多尺度与小目标采样权重,并在颈部加入可学习融合权以增强高分辨率分支;为强反光导致的伪火,推理时适度提高 IoU 阈值并接入类别先验/区域屏蔽;为烟雾遮挡与运动模糊,适度加入模糊/抖动增强并在损失中提高定位项权重。部署侧进行 BN 融合、算子简化与半精度/INT8(可选)以降低端到端延迟,确保 Flask+SocketIO 的同步双帧能够在浏览器端稳定呈现。
5. 实验结果与分析
本节在统一数据集与评测协议上,对 YOLOv5nu、YOLOv6n、YOLOv7-tiny、YOLOv8n、YOLOv9t、YOLOv10n、YOLOv11n、YOLOv12n 与 s 系列进行对比;指标包含 Precision、Recall、F1、mAP@0.5、mAP@0.5:0.95 与端到端延迟(预处理/推理/后处理),硬件为 RTX 3070 Laptop 8GB。

从 F1-Confidence 曲线可见,在默认阈值附近模型对“火焰/背景”的区分已经比较稳定,最佳 F1 出现在 conf≈0.34,进一步佐证了前端界面设置 Conf=0.30–0.35 可兼顾告警及时性与误报控制;PR 曲线整体形态饱满,mAP@0.5 位于 0.846–0.881 区间,说明检测头与损失函数设计已较好适配单类但尺度跨度大的火焰目标。结合“训练/验证”曲线,随着 epoch 增长 mAP 收敛稳定,验证集无明显过拟合拐点,满足网页端长时推理的实时性要求与稳定性需求。

就 n 系列而言,YOLOv12n 以 mAP@0.5=0.881、F1=0.835 取得最佳综合精度,但推理时间 12.47 ms 稍高;YOLOv8n/YOLOv5nu 的 F1 与 mAP 非常接近(F1≈0.833,mAP≈0.869),且推理 6.8–7.7 ms 更适合高帧率视频;YOLOv9t 的 mAP@0.5=0.872 较高,但 16.51 ms 的推理时延在流媒体场景中成为瓶颈;YOLOv7-tiny 在本数据集上 mAP 与 F1 均略低且延迟偏大。值得注意的是,YOLOv10n 的后处理仅 0.63 ms,在高分辨率/高并发下优势更明显,适合作为 Web 端 NMS-free 路径或轻后处理方案的候选。总体上,若以“>30 FPS 与“mAP≥0.86”为双目标,则 YOLOv8n/YOLOv5nu 位于经验 Pareto 前沿,YOLOv12n 适合“精度优先”的离线复核或低帧率监控。

s 系列呈现出“更高容量换取更稳健”的特征:YOLOv5su 的 mAP@0.5=0.879 居前且推理 8.45 ms;YOLOv9s 以 0.874 的 mAP 与稳定的 F1=0.830 表现均衡;YOLOv8s/YOLOv6s 在 7.7–8.6 ms 的推理时间内维持 0.865–0.867 的 mAP;而 YOLOv7 在本任务上延迟最高(23.62 ms)且 mAP 较低,更适合非实时或离线审查场景。结合 PR 曲线对比,s 系列的尾部召回更平滑,说明更大的感受野与多尺度融合对“远距离小火点”与“烟雾遮挡”的容忍度更好;若部署在边缘 GPU 或云端多路并发,YOLOv5su/YOLOv9s 是兼顾延迟与精度的稳健选择。

下表给出 n 系列的核心结果(同一硬件、同一图像尺寸与增广策略);可以看到不同算法在“推理-后处理”占比上的差异,指导我们在 Flask+SocketIO 的前后端协同中进行参数配置与队列调度。
| Model | Params(M) | FLOPs(G) | InfTime(ms) | Post(ms) | Precision | Recall | F1 | mAP@0.5 | mAP@0.5:0.95 |
|---|---|---|---|---|---|---|---|---|---|
| YOLOv5nu | 2.6 | 7.7 | 7.73 | 1.31 | 0.891 | 0.783 | 0.834 | 0.868 | 0.505 |
| YOLOv6n | 4.3 | 11.1 | 6.78 | 1.39 | 0.860 | 0.803 | 0.831 | 0.863 | 0.498 |
| YOLOv7-tiny | 6.2 | 13.8 | 14.74 | 4.06 | 0.854 | 0.781 | 0.816 | 0.847 | 0.435 |
| YOLOv8n | 3.2 | 8.7 | 6.83 | 1.39 | 0.876 | 0.794 | 0.833 | 0.870 | 0.501 |
| YOLOv9t | 2.0 | 7.7 | 16.51 | 1.29 | 0.840 | 0.805 | 0.822 | 0.872 | 0.513 |
| YOLOv10n | 2.3 | 6.7 | 11.24 | 0.63 | 0.851 | 0.783 | 0.816 | 0.856 | 0.494 |
| YOLOv11n | 2.6 | 6.5 | 9.44 | 1.42 | 0.822 | 0.804 | 0.813 | 0.860 | 0.505 |
| YOLOv12n | 2.6 | 6.5 | 12.47 | 1.37 | 0.865 | 0.808 | 0.835 | 0.881 | 0.510 |
结合混淆矩阵,火焰类的假负比例仍约 15%,主要出现在远距离微小火点、强背光/高色温光源(如夕阳与暖色灯带)以及烟雾遮挡导致的低对比区域;PR 曲线的高召回段略显陡峭,提示在 Recall>0.9 时 Precision 下降较快。面向这些失配,我们在系统侧建议:将网页端 IoU 阈值设为 0.55–0.60 以减少框漂移误检;对“远小目标”启用更高分辨率或分块推理(如 1×2 SAHI)仅在告警二次确认模式触发;对强反光场景在线采集负样本并进行 难例重采样;同时在视频端结合轻量 时序投票/短时跟踪(3–5 帧),有效抑制偶发误报而不显著增加延迟。

双条形图(n 系列)——F1 与 mAP@0.5 对比:

双条形图(s 系列)——F1 与 mAP@0.5 对比:

从系统角度看,这些对比结论直接映射为网页端的默认配置与使用建议。首先,默认阈值建议 Conf=0.34、IoU=0.55、类别=火焰;当值班场景需要“误报更低”时将 Conf 提至 0.50 并启用 时序投票;当需要“早发现”时可降至 0.25–0.30 并在报警级联中增加二次确认(如切换到 s 系列或开启分块推理)。其次,模型选择上:面向 720p/1080p 与 25–30 FPS 的实时流,推荐 YOLOv8n/YOLOv5nu;面向“精度优先与回放复核”,推荐 YOLOv12n/YOLOv5su;若部署在多路高并发并希望压缩后处理延迟,选择 YOLOv10n/10s。最后,针对误检来源(暖色光源、建筑火焰印刷、强反光与车灯),建议在数据管线上补充 难负样本 并在训练阶段启用 颜色扰动/曝光对比度抖动;对远距离小火点,保留一条“二次放大/分块”的备用通道,由前端一键触发,确保在不牺牲主流的帧率体验下改善极端场景召回。总体而言,本平台在“精度—时延—体验”的三角约束下给出了清晰的模型—参数—交互联动策略,能稳定支撑 Flask+SocketIO 的浏览器端同步双帧展示与在线导出流程。
6. 系统设计与实现
6.1 系统设计思路
本系统采用四层分工的分层架构:表现与交互层(浏览器端)—业务与会话管理层—推理与任务调度层—数据持久化层。多源输入(图片/视频/浏览器摄像头)首先在交互层完成上传或获取,随即通过 SocketIO 建立的全双工通道进入业务层的入口网关;在会话上下文内,系统将用户侧的 Conf/IoU/类别筛选 与显示偏好纳入同一参数快照,并以版本化方式注入到后续推理链路。推理侧统一执行 预处理(等比缩放与 letterbox、标准化)→ YOLO 推理 → 后处理(DFL 解码、IoU/阈值筛选或 NMS-free 匹配)→ 统计与可视化打包,最终以“原始帧/检测帧”的同步双帧格式回传前端,保证双画面对比中的时间一致性。
实时性通过“轻量化模型 + 任务调度 + 流控回压”协同保证。视频与摄像头流在业务层进入环形缓冲与时间戳队列,调度器根据设备负载与目标帧率选择微批推理或单帧直通,并在必要时丢弃过旧帧以避免积压;推理与后处理之间采用零拷贝共享内存,BN 融合、半精度与可选 ONNX/TensorRT 加速共同降低端到端延迟。后处理输出被封装为轻量消息,包含框、置信度、统计计数与可选掩膜;统计模块并行维护 PR/F1 的在线估计,用于概览页与导出看板。系统为视频任务提供进度/暂停/继续/停止控制,所有控制命令与参数变更在会话域中强一致地广播到推理链路。
可扩展性体现在“权重热切换 + 统一模型注册 + 自动迁移与审计”。模型权重通过注册表管理并采用原子切换(预热加载—健康检查—切换—旧模型回收)保证无感中断,类别元数据与阈值面板随之同步刷新;持久化层以结果与统计库、账户与权限库、导出与归档库分区存储,内置迁移脚本保障版本演进。日志/监控接口持续采集延迟、GPU 利用率、SocketIO 事件与导出状态,异常触发警报并形成可追溯链路;导出中心统一管理 CSV、带框图片/视频、MP4 缓冲流 的生成与下载,支持按文件名与时间窗口的溯源操作。
图 6-1 系统流程图
图注:系统从浏览器侧发起任务,经会话网关与任务调度进入 YOLO 推理与后处理,结果与统计一方面回流前端形成同步双帧,另一方面入库并供导出与审计。

图 6-2 系统设计框图
图注:分层结构与模块边界清晰展示了浏览器端、会话控制、推理与数据层的职责划分及数据流向;模型管理与监控接口贯穿推理链路。

6.2 登录与账户管理

登录与账户管理流程以最小可用安全为原则:用户进入登录页后,可选择注册/登录或一次性跳过。注册路径通过口令哈希与强度检查写入账户表并初始化个性化偏好;登录路径在网关校验通过后生成受会话域约束的令牌,并在进入主界面时加载历史记录、阈值与类别配置。一次性跳过创建具有受限权限与时长的临时会话,满足应急查看与快速验证的需求;在主界面中,资料修改以事务方式更新账户库并即时生效,注销行为触发会话销毁与缓存清理,从而与检测主流程形成安全的一致性边界。
代码下载链接
如果您希望获取博客中提及的完整资源包,包含测试图片、视频、Python文件(*.py)、网页配置文件、训练数据集、代码及界面设计等,可访问博主在面包多平台的上传内容。相关的博客和视频资料提供了所有必要文件的下载链接,以便一键运行。完整资源的预览如下图所示:


资源包中涵盖了你需要的训练测试数据集、训练测试代码、UI界面代码等完整资源,完整项目文件的下载链接可在Gitee项目中找到➷➷➷
完整项目下载、论文word范文下载与安装文档:https://deeppython.feishu.cn/wiki/SKNpwOiwDisb1MkrdZTcZOLrnZf
讲解视频地址:最新YOLO实现的火焰实时检测平台(Flask+SocketIO+HTML_CSS_JS)
完整安装运行教程:
这个项目的运行需要用到Anaconda和Pycharm两个软件,下载到资源代码后,您可以按照以下链接提供的详细安装教程操作即可运行成功,如仍有运行问题可私信博主解决:
- Pycharm和Anaconda的安装教程:https://deepcode.blog.csdn.net/article/details/136639378;
软件安装好后需要为本项目新建Python环境、安装依赖库,并在Pycharm中设置环境,这几步采用下面的教程可选在线安装(pip install直接在线下载包):
- Python环境配置教程:https://deepcode.blog.csdn.net/article/details/136639396;
7. 结论与未来工作
本文以 Flask + Flask-SocketIO/HTML/CSS/JS 搭建火焰实时检测平台,围绕“高召回、低时延、强可用”的目标完成从模型到系统的一体化设计与验证。数据侧共 3893 张图像并严格划分训练/验证/测试,针对小目标与强反光设计了有约束的增强与清洗;算法侧以 YOLOv5–YOLOv12 八种模型系统对比,结合 CIoU/DFL/解耦头与 Anchor-free 范式,兼顾了远距离小火点与复杂背景下的定位稳定性;系统侧实现双画面对比、视频同步双帧、进度控制、阈值与类别联动、CSV 导出、带框图片/视频一键下载、SQLite 入库与登录/注册(可跳过)等能力,并通过模型注册与权重热切换把训练评测与网页端推理打通。实验表明,在 RTX 3070 Laptop 8GB 上,YOLOv12n 取得 mAP@0.5=0.881 / F1=0.835 的最佳综合精度,YOLOv8n/YOLOv5nu 以 6.8–7.7 ms 推理延迟提供更优的实时性,YOLOv10n 具备 0.63 ms 的极低后处理时延,适合高并发流媒体场景;在前端默认阈值 Conf≈0.34、IoU≈0.55 下,平台实现了较高的告警性价比与稳定的用户体验。总体而言,所提出的工程化方案在安防园区、林地巡护与工业现场等应用中具备即插即用与可迁移性,也为后续迁移到机械器件缺陷监测、烟雾早期预警等相近任务提供了可复用模板。
面向未来,我们将从“模型—系统—数据”三条线持续演进:模型侧优先推进更轻量化与端到端(NMS-free)路线,结合蒸馏、结构化剪枝与 INT8 量化压缩时延;引入短时序建模与轻量跟踪/时序投票以抑制抖动误报,探索可见光 + 热红外/多光谱的多模态协同与超分辨/分块(SAHI)的自适应小目标增强,并尝试用合成数据/扩散生成扩充长尾场景。系统侧将实施 Docker 化与分布式任务队列(如 Celery/Kafka),支持边云协同与多路流并发,接入 WebRTC 低时延推流、WASM/ONNXRuntime 浏览器侧预推理、RBAC 角色权限与审计,完善可观测性(OpenTelemetry 指标/日志/追踪)与模型健康监测(吞吐、时延、漂移)。数据侧构建主动学习与持续标注闭环,引入数据版本管理与质量门禁,在线监测分布漂移与告警回溯,将“误报样本—再训练—权重热切换”闭环工程化。随着以上能力落地,平台将在“更早发现、更少误警、更好运维”的目标上进一步逼近业务上限,并在更广泛的场景中保持稳定可复用的工程品质。
参考文献(GB/T 7714)
1 基于改进YOLOv8的火焰与烟雾检测算法[J/OL]. 清华大学学报英文版·信息科学版, 2025. (jst.tsinghuajournals.com)
2 Liu W, Anguelov D, Erhan D, et al. SSD: Single Shot MultiBox Detector[C]//ECCV. 2016:21–37. (arXiv)
3 Ren S, He K, Girshick R, Sun J. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks[OL]. 2015. (arXiv)
4 Lin T-Y, Goyal P, Girshick R, et al. Focal Loss for Dense Object Detection[C]//ICCV. 2017. (arXiv)
5 (综述性引用)RetinaNet 相关资料汇编[OL]. 2017–2020.
6 Tian Z, Shen C, Chen H, He T. FCOS: Fully Convolutional One-Stage Object Detection[C]//ICCV. 2019. (CVF Open Access)
7 Ge Z, Liu S, Wang F, et al. YOLOX: Exceeding YOLO Series in 2021[OL]. 2021. (arXiv)
8 Wang C-Y, Bochkovskiy A, Liao H-Y M. YOLOv7: Trainable bag-of-freebies sets new SOTA for real-time detectors[OL]. 2022. (arXiv)
9 Xu S, Wang X, Lv W, et al. PP-YOLOE: An evolved version of YOLO[OL]. 2022. (arXiv)
10 Carion N, Massa F, Synnaeve G, et al. End-to-End Object Detection with Transformers[C]//ECCV. 2020. (ECVA)
11 Zhao Y, Lv W, Xu S, et al. DETRs Beat YOLOs on Real-time Object Detection[C]//CVPR. 2024. (CVF Open Access)
12 Wang C-Y, Yeh I-H, Liao H-Y M. YOLOv9: Learning What You Want to Learn Using Programmable Gradient Information[C]//ECCE 2024. (ECVA)
13 Wang A, Chen H, Liu L, et al. YOLOv10: Real-Time End-to-End Object Detection[C]//NeurIPS. 2024. (arXiv)
14 Ultralytics. YOLOv8 文档:模型与特性综述[OL]. 2023–2025. (Ultralytics Docs)
15 Ultralytics. YOLO11 概览与博客解读[OL]. 2024–2025. (Ultralytics Docs)
16 ONNX Runtime. Quantize ONNX Models—Documentation[OL]. 2025. (ONNX Runtime)
17 NVIDIA. TensorRT Developer Guide / Latest Docs[OL]. 2024–2025. (NVIDIA Docs)
18 马冉, 顾宏. 基于改进YOLOv8的火灾目标检测系统[J]. 人工智能与机器人研究, 2024,13(1):56–65. (HansPub PDF)
19 (万方)基于YOLO-IFD的火灾检测算法研究[J/OL]. 2025. (Wanfang Data)
[20] 领域博文与工程报告:基于YOLOv8的森林火灾红外检测系统[OL]. 2025. (CSDN Blog)
注:文中关键结论均可在对应来源核验;如无特别说明,指标基于公开报告/论文默认设置,硬件与实现差异可能影响绝对数,但不改变相对趋势。

浙公网安备 33010602011771号