上一页 1 2 3 4 5 6 7 8 ··· 16 下一页
摘要: 对于自然语言和音频等前后相关联的数据,需要使用循环神经网络进行处理 1. 数据表示 序列数据:对于一个序列数据 x,用符号xt来表示这个数据中的第t个元素,用yt来表示第 t个标签,用 Tx和 Ty来表示输入和输出的长度。可以是单词也可以是字符,音频的一段元素。第 i个序列数据的第t 个元素用符号x 阅读全文
posted @ 2023-03-05 11:29 forever_fate 阅读(93) 评论(0) 推荐(0)
摘要: 1. 人脸识别 人脸验证(Face Verification)和人脸识别(Face Recognition)的区别: 人脸验证:一般指一个一对一问题,只需要验证输入的人脸图像是否与某个已知的身份信息对应; 人脸识别:一个更为复杂的一对多问题,需要验证输入的人脸图像是否与多个已知身份信息中的某一个匹配 阅读全文
posted @ 2023-03-04 11:14 forever_fate 阅读(74) 评论(0) 推荐(0)
摘要: 1. 目标定位 定位分类问题不仅要求判断出图片中物体的种类,还要在图片中标记出它的具体位置,用边框(Bounding Box,或者称包围盒)把物体圈起来。一般来说,定位分类问题通常只有一个较大的对象位于图片中间位置;而在目标检测问题中,图片可以含有多个对象,甚至单张图片中会有多个不同分类的对象。 为 阅读全文
posted @ 2023-03-03 09:29 forever_fate 阅读(213) 评论(0) 推荐(0)
摘要: 1. LeNet-5 特点: LeNet-5 针对灰度图像而训练,因此输入图片的通道数为 1。 该模型总共包含了约 6 万个参数,远少于标准神经网络所需。 典型的 LeNet-5 结构包含卷积层(CONV layer),池化层(POOL layer)和全连接层(FC layer),排列顺序一般为 C 阅读全文
posted @ 2023-03-01 16:45 forever_fate 阅读(226) 评论(0) 推荐(0)
摘要: 一、计算机视觉 计算机视觉(Computer Vision)的高速发展标志着新型应用产生的可能,例如自动驾驶、人脸识别、创造新的艺术风格。一般的计算机视觉问题包括以下几类: 图片分类(Image Classification); 目标检测(Object detection); 神经风格转换(Neur 阅读全文
posted @ 2023-02-27 15:54 forever_fate 阅读(361) 评论(0) 推荐(0)
摘要: 1. 正交化 (Orthogonalization) Orthogonalization的核心在于每次调试一个参数只会影响模型的某一个性能 机器学习监督式学习模型大致分成四个独立的“功能”: Fit training set well on cost function ,优化训练集成本函数可以通过使 阅读全文
posted @ 2023-02-27 15:13 forever_fate 阅读(152) 评论(0) 推荐(0)
摘要: 1. 超参数 深度神经网络需要调试的超参数(Hyperparameters)如下,重要性红色>蓝色>橘色>黑色 α:学习因子 β:动量梯度下降因子 β1,β2,ε:Adam算法参数 #layers:神经网络层数 #hidden units:各隐藏层神经元个数 learning rate decay: 阅读全文
posted @ 2023-02-27 10:19 forever_fate 阅读(120) 评论(0) 推荐(0)
摘要: 1.batch梯度下降法 batch 梯度下降法:对整个训练集进行梯度下降法的时候,我们必须处理整个训练数据集,然后才能进行一步梯度下降,即每一步梯度下降法需要对整个训练集进行一次处理,如果训练数据集很大的时候,处理速度就会比较慢。 2. Mini-batch 梯度下降 把m个训练样本分成若干个子集 阅读全文
posted @ 2023-02-24 21:18 forever_fate 阅读(126) 评论(0) 推荐(0)
摘要: 1. 数据集划分 对于一个需要解决的问题的样本数据,在建立模型的过程中,数据会被划分为以下几个部分: 训练集(train set):用训练集对算法或模型进行训练过程; 验证集(development set):利用验证集(又称为简单交叉验证集,hold-out cross validation se 阅读全文
posted @ 2023-02-24 20:29 forever_fate 阅读(128) 评论(0) 推荐(0)
摘要: 一、深层神经网络 1. 深层的作用 随着层数由浅到深,神经网络提取的特征也是从边缘到局部特征到整体,由简单到复杂。如果隐藏层足够多,那么能够提取的特征就越丰富、越复杂,特征复杂度与神经网络层数成正相关,模型的准确率就会越高 深层神经网络相对于又胖又浅的神经网络,可以减少神经元个数,减少计算量, 2. 阅读全文
posted @ 2023-02-24 15:27 forever_fate 阅读(66) 评论(0) 推荐(0)
上一页 1 2 3 4 5 6 7 8 ··· 16 下一页