上一页 1 2 3 4 5 6 ··· 10 下一页
摘要: 前言 大伙既然都来做这个了,那配个CUDA环境肯定是必不可少的了吧(笑) 最前面的最前面, 流程 确定当前设备支持的CUDA版本 安装CUDA Toolkit 和 GPU版的Paddlepaddle 下载cuDNN Archive 手动放置配套的cuDNN到指定文件夹 测试 1.确定当前设备支持的C 阅读全文
posted @ 2024-01-06 12:39 轩先生。 阅读(226) 评论(0) 推荐(1) 编辑
摘要: 前言 上一节大概讲了一下LeNet的内容,这一章就直接来用,实际上用一下LeNet来进行训练和分类试试。 调用的数据集: https://aistudio.baidu.com/datasetdetail/19065 说明: 如今近视已经成为困扰人们健康的一项全球性负担,在近视人群中,有超过35%的人 阅读全文
posted @ 2024-01-04 16:07 轩先生。 阅读(70) 评论(0) 推荐(0) 编辑
摘要: 前言 图像分类是根据图像的语义信息对不同类别图像进行区分,是计算机视觉的核心,是物体检测、图像分割、物体跟踪、行为分析、人脸识别等其他高层次视觉任务的基础。图像分类在许多领域都有着广泛的应用,如:安防领域的人脸识别和智能视频分析等,交通领域的交通场景识别,互联网领域基于内容的图像检索和相册自动归类, 阅读全文
posted @ 2024-01-03 17:14 轩先生。 阅读(27) 评论(0) 推荐(0) 编辑
摘要: 前言 这里实际上涉及到了挺多有关有关理论的东西,可以详细看一下paddle的官方文档。不过我这里不过多的谈有关理论的东西。 【低层视觉】低层视觉中常见的卷积核汇总 图像处理中常用的卷积核 在代码中,我们实际上是用不同的卷积核来造成不同的影响,我这里也是paddle中对于卷积核的几个比较简单的应用。 阅读全文
posted @ 2024-01-03 14:12 轩先生。 阅读(24) 评论(0) 推荐(0) 编辑
摘要: 前言 我们之前不是说了有关梯度下降公式的事嘛,就是那个 这样梯度下降公式涉及两个问题,一是梯度下降的策略,二是涉及到参数的选择,如果我们选择固定步长的时候,就会发现我们求的值一直在最小值左右震荡,很难选择到我们期望的值。 假设上图中,x0为我们期望的极小值,yB = xA - yA'xA的时候,xB 阅读全文
posted @ 2024-01-02 23:33 轩先生。 阅读(6) 评论(0) 推荐(0) 编辑
摘要: 前言 我们之前用的是均方差作为我们神经网络的损失函数评估值,但是我们对于结果,比如给定你一张应该是0的照片,它识别成了6,这个时候这个均方差表达了什么特别的含义吗?显然你识别成6并不代表它比识别成1的情况误差更大。 所以说我们需要一种全新的方式,基于概率的方案来对结果进行规范。也就是我们说的交叉熵损 阅读全文
posted @ 2024-01-02 23:12 轩先生。 阅读(31) 评论(0) 推荐(0) 编辑
摘要: 前言 第一次写卷积神经网络,也是照着paddlepaddle的官方文档抄,这里简单讲解一下心得。 首先我们要知道之前写的那些东西都是什么,之前写的我们称之为简单神经网络,也就是简单一层连接输出和输出,通过前向计算和逆向传播,以及梯度下降的方式让结果慢慢滑向我们期望的终点。 这种方法固然好,但是它的限 阅读全文
posted @ 2024-01-02 09:35 轩先生。 阅读(10) 评论(0) 推荐(0) 编辑
摘要: 目标 实现一个简单的手写识别的脚本,同样的,流程分五步走: 读入数据 初始化模型 训练模型 训练样本集乱序 校验数据有效性 前期准备 前期需要将库导入,还需要进行一些初始化操作 数据处理部分之前的代码,加入部分数据处理的库 点击查看代码 #加载飞桨和相关类库 import paddle from p 阅读全文
posted @ 2023-12-25 17:10 轩先生。 阅读(12) 评论(0) 推荐(0) 编辑
摘要: 目标 用paddlepaddle来重写之前那个手写的梯度下降方案,简化内容 流程 实际上就做了几个事: 数据准备:将一个批次的数据先转换成nparray格式,再转换成Tensor格式 前向计算:将一个批次的样本数据灌入网络中,计算出结果 计算损失函数:以前向计算的结果和真是房价作为输入,通过算是函数 阅读全文
posted @ 2023-12-22 17:21 轩先生。 阅读(21) 评论(0) 推荐(0) 编辑
摘要: 从波士顿房价开始 目标 其实这一章节比较简单,主要是概念,首先在波士顿房价这个问题中,我们假设了一组线性关系,也就是如图所示 我们假定结果房价和这些参数之间有线性关系,即: 然后我们假定这个函数的损失函数为均方差,即: 那么就是说,我们现在是已知y和x,来求使得这个损失函数Loss最小化的一个w和b 阅读全文
posted @ 2023-12-22 14:13 轩先生。 阅读(50) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 ··· 10 下一页