上一页 1 2 3 4 5 6 ··· 37 下一页
摘要: 一、前言 Gitea是用Go语言编写的自托管开源git服务器。它是Gogs的分支。Gitea包括存储库文件编辑器,项目问题跟踪,用户管理,通知,内置Wiki等。 Gitea是轻型应用程序,可以安装在低配置系统。如果您正在寻找内存占用量少得多的Gitlab替代产品,并且不需要Gitlab提供的所有功能 阅读全文
posted @ 2023-01-05 15:46 小金乌会发光-Z&M 阅读(1083) 评论(0) 推荐(0) 编辑
摘要: 一、前言 一般而言,我们在Linux系统下通常使用解压缩命令去压缩/解压缩文件。在C++程序中,要实现该功能,我们有两种方式: 通过system函数调用7z等命令去执行压缩或者解压缩; 通过使用C++调用解压缩工具库去执行压缩或者解压缩; 第一种方式操作起来很简便,但是它比较死板,以解压缩为例,就一 阅读全文
posted @ 2022-12-20 16:06 小金乌会发光-Z&M 阅读(538) 评论(0) 推荐(0) 编辑
摘要: 一、前言 使用pytorch可以很方便地训练网络,并且pytorch的官方网站中给出了很全的python对tensor的操作接口API,但是在部署libtorch的时候,c++对tensor的操作接口API资料甚少,因此,本文旨在整理部署libtorch的时候,操作tensor块常用的接口API,有 阅读全文
posted @ 2022-12-14 15:10 小金乌会发光-Z&M 阅读(2370) 评论(0) 推荐(0) 编辑
摘要: 一、前言 Valgrind是linux环境下开发应用程序时用于内存调试和性能分析的工具集,其中Memcheck工具可以用来检查C/C++程序中的内存操作错误。本文列举了几种常见的内存操作错误以及Memcheck工具的检测结果,其中包括以下几种类型: 使用未初始化的内存 内存读写越界 内存覆盖 读写已 阅读全文
posted @ 2022-12-08 14:38 小金乌会发光-Z&M 阅读(906) 评论(0) 推荐(1) 编辑
摘要: 一、问题描述 目标检测算法的漏检,一直是极具挑战性的问题。谈到漏检(low recall),离不开较高的检测精度(high precision)的要求,只有在precision得到保证条件下讨论recall才有意义。下面的讨论主要围绕precision可以接受的条件下,如何进一步提高recall,也 阅读全文
posted @ 2022-11-25 16:04 小金乌会发光-Z&M 阅读(1145) 评论(0) 推荐(0) 编辑
摘要: 一、前言 当我们使用Ubuntu服务器配置一些分析服务时,经常会用到日志去记录一些信息以便追溯分析过程。但是,时间久了之后,日志文件数量和空间会不断膨胀,这个时候我们就需要考虑如何去管理这些日志文件了。本文的主题便是讨论如何使用Logrotate管理日志文件。 二、Logrotate介绍 Logro 阅读全文
posted @ 2022-11-18 18:41 小金乌会发光-Z&M 阅读(1351) 评论(0) 推荐(1) 编辑
摘要: 一、前言 训练神经网络的一个重要部分是对输入进行预处理。通过仔细检查、清理和转换输入数据,可以获得许多性能增益。在这篇文章中,我们将考虑输入图像的对比度拉伸为主要的图像增强方法对Mask R-CNN网络识别物体的性能的影响。对比拉伸增强了物体的轮廓,强调了物体与背景的区别,理论上可以提高模型的学习能 阅读全文
posted @ 2022-11-16 18:32 小金乌会发光-Z&M 阅读(527) 评论(0) 推荐(0) 编辑
摘要: 前言 待更! https://charon-cheung.github.io/2021/09/13/Linux%E5%9F%BA%E7%A1%80/ubuntu%E7%9A%84%E6%98%BE%E5%8D%A1%E5%8F%8A%E9%A9%B1%E5%8A%A8/#%E9%A9%B1%E5%8 阅读全文
posted @ 2022-11-09 18:07 小金乌会发光-Z&M 阅读(436) 评论(0) 推荐(0) 编辑
摘要: 前言 模型量化这个概念在深度学习领域已经很常见了,它主要是通过使用定点数表示模型中的weights和运行时的activations来实现对模型尺寸的压缩和运行的加速。 什么是量化? 量化是数学运算与数字信号处理里广为使用的一种方法,它将一个大的集合种的输入数字映射到一个小的集合中的数字,这个小的集合 阅读全文
posted @ 2022-11-08 10:44 小金乌会发光-Z&M 阅读(553) 评论(0) 推荐(0) 编辑
摘要: 一、前言 默认情况下,大多数深度学习框架(比如 pytorch)都采用 32 位浮点算法进行训练。Automatic Mixed Precision(AMP, 自动混合精度)可以在神经网络训练过程中,针对不同的层,采用不同的数据精度进行计算,从而实现节省显存和加快速度的目的。 Pytorch AMP 阅读全文
posted @ 2022-11-07 16:11 小金乌会发光-Z&M 阅读(1951) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 ··· 37 下一页