摘要: C ++提供了一种数据结构,即数组,该数组存储一个固定大小的由相同类型元素构成的顺序集合。 数组中的元素存储在一个连续内存位置中,元素可通过数组索引访问, 最低地址对应于第一个元素,最高地址对应于最后一个元素。 声明数组 例如 声明固定长度的数组: const int Size = 5; int a 阅读全文
posted @ 2020-06-21 17:00 老张哈哈哈 阅读(7554) 评论(0) 推荐(1) 编辑
摘要: 在finetune Chinese GPT2的时候遇到如上错误,错误原因index越界,原始代码中给定的输入长度是1024,但是我使用模型可接受的输入长度是512,把输入长度都改为512,错误解决 阅读全文
posted @ 2020-06-03 14:59 老张哈哈哈 阅读(10625) 评论(0) 推荐(0) 编辑
摘要: 文章主要来自 "Tensorflow官方文档" ,同时加入了自己的理解以及部分代码 数据读取 TensorFlow程序读取数据一共有3种方法: 供给数据(Feeding): 在TensorFlow程序运行的每一步, 让Python代码来供给数据。 从文件读取数据: 在TensorFlow图的起始, 阅读全文
posted @ 2020-04-29 23:08 老张哈哈哈 阅读(597) 评论(0) 推荐(0) 编辑
摘要: 插值指的是利用已知数据去预测未知数据,图像插值则是给定一个像素点,根据它周围像素点的信息来对该像素点的值进行预测。当我们调整图片尺寸或者对图片变形的时候常会用到图片插值。比如说我们想把一个4x4的图片, 就会产生一些新的像素点( 如下图红点所示), 如何给这些值赋值, 就是图像插值所要解决的问题, 阅读全文
posted @ 2020-03-28 11:36 老张哈哈哈 阅读(20437) 评论(0) 推荐(0) 编辑
摘要: 定义:grep用来搜索文件中符合条件的字符串,并返回包含该字符串的所有行 语法: grep [options] pattern [files] 一些常见选项的解释 -c : 计算包含样式的行数 -h : 显示包含该样式的行,但是不显示该行所属的文件的名字 -i : 忽略字符大小写的差别 -l : 只 阅读全文
posted @ 2020-03-22 11:36 老张哈哈哈 阅读(1764) 评论(0) 推荐(0) 编辑
摘要: 具体安装过程详见https://github.com/open-mmlab/mmdetection/blob/master/docs/INSTALL.md 在安装完成mmdetection后运行test文件报错Segmentation fault(core dumped),查询后发现是由于gcc版本 阅读全文
posted @ 2020-03-18 13:10 老张哈哈哈 阅读(1479) 评论(0) 推荐(0) 编辑
摘要: 根据前面几篇文章我们可以知道,当我们为模型泛化性能选择评估指标时,要根据问题本身以及数据集等因素来做选择.本篇博客主要是解释Micro Average,Macro Average,Weighted Average.这三者常用于多分类任务,他们的计算方法有细微的差别,因此在各自表示的含义和适用场景上也 阅读全文
posted @ 2020-03-15 20:59 老张哈哈哈 阅读(11572) 评论(2) 推荐(1) 编辑
摘要: 在机器学习领域,如果把Accuracy作为衡量模型性能好坏的唯一指标,可能会使我们对模型性能产生误解,尤其是当我们模型输出值是一个概率值时,更不适宜只采取Accuracy作为衡量模型性泛化能的指标.这篇博文会为大家介绍两种比较二分决策模型性能的方法PR曲线, ROC曲线 预测概率 对于分类问题我们可 阅读全文
posted @ 2020-02-29 15:56 老张哈哈哈 阅读(12499) 评论(0) 推荐(2) 编辑
摘要: 当我们在谈论一个模型好坏的时候,我们常常会听到准确率(Accuracy)这个词,我们也会听到"如何才能使模型的Accurcy更高".那么是不是准确率最高的模型就一定是最好的模型? 这篇博文会向大家解释准确率并不是衡量模型好坏的唯一指标,同时我也会对其他衡量指标做出一些简单说明。 首先我们先要了解混淆 阅读全文
posted @ 2020-02-27 19:55 老张哈哈哈 阅读(10197) 评论(0) 推荐(5) 编辑
摘要: 这篇博文主要是解释偏差和方差,以及如何利用偏差和方差理解机器学习算法的泛化性能 综述 在有监督学习中,对于任何学习算法而言,他们的预测误差可分解为三部分 偏差 方差 噪声 噪声属于不可约减误差,无论使用哪种算法,都无法减少噪声。 通常噪声是从问题的选定框架中引入的错误,也可能是由诸如未知变量之类的因 阅读全文
posted @ 2020-02-23 21:15 老张哈哈哈 阅读(1601) 评论(0) 推荐(0) 编辑