随笔分类 -  Machine Learning

摘要: 阅读全文
posted @ 2021-12-20 12:20 TheDa 阅读(21) 评论(0) 推荐(0)
摘要:TVM循环优化调度策略解析 - 知乎 (zhihu.com) (40条消息) TVM Compiler中文教程:TVM调度原语(Schedule Primitives)_Mars_WH的专栏-CSDN博客_tvm编程 (40条消息) TVM之Schedule_sayandroid的专栏-CSDN博客 阅读全文
posted @ 2021-12-10 21:54 TheDa 阅读(234) 评论(0) 推荐(0)
摘要:我的python代码能力真的相当之差,几乎是一边看一边学。 起因是《Neural Architecture Search as Program Transformation》这篇论文的学习,其中有几个点我不是很清楚,现在把学习到的东西记录一下。 代码在https://github.com/jack- 阅读全文
posted @ 2021-11-30 18:24 TheDa 阅读(447) 评论(0) 推荐(0)
摘要:来自知乎:https://zhuanlan.zhihu.com/p/98522236 大佬的图片做的太好了: 将数据组织在一起,然后利用局部性原理即可加快运算。 阅读全文
posted @ 2021-10-24 16:49 TheDa 阅读(34) 评论(0) 推荐(0)
摘要:典型的CNN网络,学习,代码风格都一样的 import os import sys ROOTDIR = os.path.abspath(os.path.join(sys.path[0], '../../..')) sys.path.append(ROOTDIR) import tensorflow 阅读全文
posted @ 2021-10-22 18:50 TheDa 阅读(143) 评论(0) 推荐(0)
摘要:http://c.biancheng.net/view/1946.html提到了梯度爆炸 https://zhuanlan.zhihu.com/p/25631496 https://www.cnblogs.com/pinard/p/6494810.html#!comments据说很好 了解一下梯度作 阅读全文
posted @ 2021-10-10 21:16 TheDa 阅读(26) 评论(0) 推荐(0)
摘要:看这个https://zhuanlan.zhihu.com/p/30844905 循环神经网络诞生的原因,就是神经网络的输入不是分散的,可能输入之间也有联系。 主要算法流程如下图: 解释一下。 输入层x,数据被输入层权值矩阵U处理过后,输入到了隐藏层中。 隐藏层的输出为S,但是S不是整个RNN网络最 阅读全文
posted @ 2021-10-10 20:34 TheDa 阅读(59) 评论(0) 推荐(0)
摘要:此代码用于学习模拟器,和上一篇博客的代码相同,因重要重新整理。 node_list=[] edge_list=[] kernel_h = 3 kernel_w = 3 kernel_size = kernel_h*kernel_w pool_size = 2*2 data_per_pix = 1 d 阅读全文
posted @ 2021-10-08 21:16 TheDa 阅读(72) 评论(0) 推荐(0)
摘要:1.学会用pytorch实现CNN 首先上代码:mnist数据集的预测,代码来自于https://blog.csdn.net/WeilingDu/article/details/108620894 #暂时看不懂https://blog.csdn.net/qq_27825451/article/det 阅读全文
posted @ 2021-10-04 20:05 TheDa 阅读(156) 评论(0) 推荐(0)
摘要:安装好pytorch 首先看了https://jingyan.baidu.com/article/ae97a6467af07efbfc461d09.html直接去pytorch官网上安装 结果报错 ERROR: torch has an invalid wheel, .dist-info direc 阅读全文
posted @ 2021-10-03 19:36 TheDa 阅读(864) 评论(0) 推荐(0)
摘要:http://c.biancheng.net/view/1934.html 主要在这里大致了解了一下keras的使用。 迁移学习,说实话还没有很好地掌握。 这里使用了训练好的VGG网络,而且禁用了前面15层的网络的参数的训练。 迁移学习应该就是使用已有的训练好的神经网络来训练新的神经网络吧。 还是看 阅读全文
posted @ 2021-10-01 21:58 TheDa 阅读(68) 评论(0) 推荐(0)
摘要:本程序可以使用CNN来预测mnist数据集的数字 #CNN from __future__ import division,print_function import tensorflow as tf import matplotlib.pyplot as plt import numpy as n 阅读全文
posted @ 2021-09-30 19:25 TheDa 阅读(294) 评论(0) 推荐(0)
摘要:https://blog.csdn.net/program_developer/article/details/80737724 这篇博客讲的很清楚 阅读全文
posted @ 2021-09-30 15:24 TheDa 阅读(181) 评论(0) 推荐(0)
摘要:我目前的理解是这个工具可以帮助构建神经网络? TensorFlow多层感知机实现MINIST分类(详解版) (biancheng.net) 学了几天之后回来感觉全连接层就是一个傻逼东西。 以https://www.cnblogs.com/theda/p/15357946.html我的这篇博客的代码的 阅读全文
posted @ 2021-09-26 20:06 TheDa 阅读(133) 评论(0) 推荐(0)
摘要:Back Propagation algorithm 首先在编程的时候遇到了tensorflow版本过低的问题,使用不了sigmoid激发函数。 因此使用 python import tensorflow as tf tf.__version__ 查看tensorflow版本。 tf.__path_ 阅读全文
posted @ 2021-09-23 13:30 TheDa 阅读(133) 评论(0) 推荐(0)
摘要:http://c.biancheng.net/view/1914.html import tensorflow as tf import numpy as np import matplotlib.pyplot as plt def threshold(x): cond=tf.less(x,tf.z 阅读全文
posted @ 2021-09-22 19:31 TheDa 阅读(249) 评论(0) 推荐(0)
摘要:这里介绍了一个最简单的使用TensorFlow实现简单的线性回归算法的方法。 http://c.biancheng.net/view/1906.html原文地址 import tensorflow as tf import numpy as np import matplotlib.pyplot a 阅读全文
posted @ 2021-09-21 20:23 TheDa 阅读(246) 评论(0) 推荐(0)
摘要:安装使得python可视化的工具 matplotlib 直接在TensorFlow的虚拟环境下pip install matplotlib完事。 有了前面的经验这次直接简单完成。 读取MNIST数据集 mnist数据集在TensorFlow当中是有自己的api的。 这段代码直接运行看看效果,api好 阅读全文
posted @ 2021-09-21 19:21 TheDa 阅读(120) 评论(0) 推荐(0)
摘要:MNIST:这是最大的手写数字(0~9)数据库。它由 60000 个示例的训练集和 10000 个示例的测试集组成。该数据集存放在 Yann LeCun 的主页(http://yann.lecun.com/exdb/mnist/)中。这个数据集已经包含在tensorflow.examples.tut 阅读全文
posted @ 2021-09-20 20:15 TheDa 阅读(302) 评论(0) 推荐(0)
摘要:一 TensorFlow XLA加速线性代数编译器 http://c.biancheng.net/view/1891.html 二在 TensorFlow 中指定某一设备用于矩阵乘法的计算 http://c.biancheng.net/view/1893.html 阅读全文
posted @ 2021-09-20 20:00 TheDa 阅读(33) 评论(0) 推荐(0)