随笔分类 - AI
写AI相关技术博客不少于4篇,看书1本
摘要:主要原理: 其中: g-表示关系深度网络 C-表示concatenate f-表示特征提取网络(branch) xi,xj- 一个表示有标签样本,另一个表示待分类样本 训练中每个episode/mini-batch包含样本数量=N*C 其中: C = 类型数量 N = sample images +
阅读全文
摘要:Paper: https://arxiv.org/abs/1708.02002 还参考了:https://www.jianshu.com/p/8e501a159b28 其中p是预测属于某类的概率。
阅读全文
摘要:参考: https://www.kaggle.com/learn/machine-learning-explainability 这个课程将讲解如何从复杂的机器学习模型中解释这些发现。 这些发现有许多用途,包括 Permutation Importance置换重要性 统计每个feature的重要程度
阅读全文
摘要:参考了: https://www.cnblogs.com/52machinelearning/p/5821591.html https://blog.csdn.net/qq_24695385/article/details/80368618 LeNet 参考:https://www.jianshu.
阅读全文
摘要:基本思想V1: 将输入图像分成S*S个格子,每隔格子负责预测中心在此格子中的物体。 每个格子预测B个bounding box及其置信度(confidence score),以及C个类别概率。 bbox信息(x,y,w,h)为物体的中心位置相对格子位置的偏移及宽度和高度,均被归一化. 置信度反映是否包
阅读全文
摘要:Paper: https://arxiv.org/pdf/1512.02325.pdf SSD用神经网络(VGG)提取多层feature map ,来实现对不同大小物体的检测。如下图所示: We use the VGG-16 network as a base, but other networks
阅读全文
摘要:参考了这个博客:https://blog.csdn.net/tsyccnh/article/details/79163834 主要用于多分类、单分类任务中,计算loss,交叉熵定义如下: 其中: p是实际概率,在机器学习中通常为label值,且取值为0或则1 q是预测概率,在机器学习中通常为预测结果
阅读全文
摘要:tensorflow的执行过程: 在定义Variables的时候,Scope相当于C++中的命名空间,可以用Scope来避免命名冲突,以及方便重复使用定义的Variables 如下代码,源于: https://github.com/MorvanZhou/tutorials/blob/master/t
阅读全文
摘要:Switch to Chinese conda Source, config file is in ~/.condarc conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/ cond
阅读全文
摘要:batch_size 单次训练用的样本数,通常为2^N,如32、64、128... 相对于正常数据集,如果过小,训练数据就收敛困难;过大,虽然相对处理速度加快,但所需内存容量增加。 使用中需要根据计算机性能和训练次数之间平衡。 epoch 1 epoch = 完成一次全部训练样本 = 训练集个数 /
阅读全文
摘要:其中其决定作用的是这篇文章 https://www.pugetsystems.com/labs/hpc/Install-TensorFlow-with-GPU-Support-the-Easy-Way-on-Ubuntu-18-04-without-installing-CUDA-1170/ 注意兼
阅读全文
摘要:本文参考了: https://blog.csdn.net/u014552678/article/details/62046638 https://blog.csdn.net/qigenhuochai/article/details/77891003 方法一(推荐): 此法权限更高 方法二: 改为:
阅读全文

浙公网安备 33010602011771号