会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
1直在路上1
博客园
首页
新随笔
联系
订阅
管理
1
2
3
4
5
···
13
下一页
2024年3月19日
seq2seq项目详解
摘要: 一、seq2seq和encoder-decoder关系 seq2seq是从解决问题的目的角度来说的,利用的框架是encoder-decoder 二、项目例子 比如我们有两个文件letters_source.txt和letters_target.txt,他们行数一致,也就是我们的训练集合,他们每一行互
阅读全文
posted @ 2024-03-19 20:18 河水青山1
阅读(198)
评论(0)
推荐(0)
2020年4月25日
实例讲解反向传播
摘要: 一、背景介绍 假设我们的训练集每个样本都有两个特征-$x_1, x_2$,也就是下面的$i_1, i_2$,每个样本的标签为$o_1, o_2$(假设标签是二分类,我们用one-hot表示标签) 我们要用下面的神经网络来进行训练: 二、前向传播与反向传播 现在对他们赋上初值,如下图:(你暂时可以认为
阅读全文
posted @ 2020-04-25 10:21 河水青山1
阅读(886)
评论(0)
推荐(0)
2020年4月11日
HMM-隐马尔科夫模型
摘要: 一、目的 主要以实例讲解HMM,防止公式吓跑大家 HMM两个假设: 齐次马尔可夫性假设:当前状态只依赖上一个状态 观测独立性假设:当前观测只依赖当前状态 二、实例 假设生活中的天气只有三种状态:sun,cloud,rain,并且我们知道他们之间相互转换的概率,也就是说: 昨天是sun,今天天气转换成
阅读全文
posted @ 2020-04-11 10:57 河水青山1
阅读(545)
评论(0)
推荐(0)
2020年3月30日
XGBoost
摘要: 一、XGBoost起源 XGBoost的全称是ExtremeGradient Boosting,2014年2月诞生,作者为华盛顿大学研究机器学习的大牛——陈天奇。 他在研究中深深的体会到现有库的计算速度和精度问题,为此而着手搭建完成 xgboost 项目。 XGBoost问世后,因其优良的学习效果以
阅读全文
posted @ 2020-03-30 23:24 河水青山1
阅读(1114)
评论(0)
推荐(0)
2020年3月27日
tf.layers.dense
摘要: tf.layers.dense: import tensorflow as tf batch_size = 5 ones = tf.ones([batch_size,20]) logits = tf.layers.dense(ones,10) print(logits.get_shape()) im
阅读全文
posted @ 2020-03-27 23:08 河水青山1
阅读(714)
评论(0)
推荐(1)
2020年3月25日
TF使用目录
摘要: 1)tf.contrib.layers.embed_sequence()函数 2)tf.strided_slice,tf.fill,tf.concat使用实例 3)tf.nn.embedding_lookup 4)tf.layers.dense
阅读全文
posted @ 2020-03-25 23:11 河水青山1
阅读(173)
评论(0)
推荐(0)
tf.nn.embedding_lookup
摘要: tf.nn.embedding_lookup import tensorflow as tf from distutils.version import LooseVersion import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' # Check T
阅读全文
posted @ 2020-03-25 23:09 河水青山1
阅读(272)
评论(0)
推荐(0)
tf.strided_slice_and_tf.fill_and_tf.concat
摘要: tf.strided_slice,tf.fill,tf.concat使用实例 其中,我们需要对tensor data进行切片,tf.strided_slice使用方法请参考 import tensorflow as tf import os os.environ['TF_CPP_MIN_LOG_LE
阅读全文
posted @ 2020-03-25 22:52 河水青山1
阅读(271)
评论(0)
推荐(0)
2020年3月23日
tf.contrib.layers.embed_sequence()
摘要: tf.contrib.layers.embed_sequence()函数 一般用于Seq2Seq网络,可完成对输入序列数据的嵌入工作。一般只需给出前三个参数。 embed_sequence( ids, # 输入的形状为[batch_size, max_seq_len] vocab_size=None
阅读全文
posted @ 2020-03-23 22:19 河水青山1
阅读(720)
评论(0)
推荐(0)
2020年2月22日
30-奇异值分解
摘要: 一、背景介绍 奇异值分解(Singular value decomposition)简称SVD,是将矩阵分解为特征值和特征向量的另一种方法。 奇异值分解可以将一个比较复杂的矩阵用更小更简单的几个子矩阵相乘来表示,这些小矩阵描述的都是矩阵的重要的特性。 奇异值分解在图形降噪、推荐系统中都有很重要的应用
阅读全文
posted @ 2020-02-22 22:40 河水青山1
阅读(537)
评论(0)
推荐(0)
1
2
3
4
5
···
13
下一页
公告