会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
汤姆啾
学习仅此而已~
博客园
首页
新随笔
联系
管理
订阅
上一页
1
···
9
10
11
12
13
14
15
16
17
···
21
下一页
2019年7月25日
pytorch1.0实现GAN
摘要: pytorch1.0实现GAN
阅读全文
posted @ 2019-07-25 21:18 土博姜山山
阅读(943)
评论(0)
推荐(0)
2019年7月17日
pytorch1.0实现AutoEncoder
摘要: AutoEncoder (自编码器-非监督学习) 神经网络也能进行非监督学习, 只需要训练数据, 不需要标签数据. 自编码就是这样一种形式. 自编码能自动分类数据, 而且也能嵌套在半监督学习的上面, 用少量的有标签样本和大量的无标签样本学习.
阅读全文
posted @ 2019-07-17 23:00 土博姜山山
阅读(1612)
评论(0)
推荐(0)
pytorch1.0进行Optimizer 优化器对比
摘要: pytorch1.0进行Optimizer 优化器对比
阅读全文
posted @ 2019-07-17 11:52 土博姜山山
阅读(1036)
评论(0)
推荐(0)
pytorch1.0批训练神经网络
摘要: pytorch1.0批训练神经网络
阅读全文
posted @ 2019-07-17 11:36 土博姜山山
阅读(205)
评论(0)
推荐(0)
pytorch1.0神经网络保存、提取、加载
摘要: pytorch1.0神经网络保存、提取、加载
阅读全文
posted @ 2019-07-17 11:16 土博姜山山
阅读(752)
评论(0)
推荐(0)
2019年7月16日
MapReduce示例式理解
摘要: MapReduce示例式理解
阅读全文
posted @ 2019-07-16 19:56 土博姜山山
阅读(320)
评论(0)
推荐(0)
哈希--Hash,“散列”/“哈希”
摘要: 哈希 Hash,翻译“散列”,音译为“哈希”,把任意长度的输入,通过散列算法,变换成固定长度的输出,该输出就是散列值。这种转换是一种压缩映射,也就是散列值的空间通常远小于输入的空间,不同的输入可能会散列成相同的输出,所以不可能从散列值来唯一的确定输入值。简单的说就是一种将任意长度的消息压缩到某一固定长度的消息摘要的函数。
阅读全文
posted @ 2019-07-16 14:50 土博姜山山
阅读(498)
评论(0)
推荐(0)
2019年7月15日
CentOS7服务器查看相关配置命令
摘要: CentOS7服务器查看相关配置命令
阅读全文
posted @ 2019-07-15 16:08 土博姜山山
阅读(13561)
评论(0)
推荐(0)
2019年7月14日
用pytorch1.0快速搭建简单的神经网络
摘要: 用pytorch1.0快速搭建简单的神经网络
阅读全文
posted @ 2019-07-14 22:04 土博姜山山
阅读(533)
评论(0)
推荐(0)
用pytorch1.0搭建简单的神经网络:进行多分类分析
摘要: 用pytorch1.0搭建简单的神经网络:进行多分类分析
阅读全文
posted @ 2019-07-14 21:42 土博姜山山
阅读(2938)
评论(0)
推荐(0)
上一页
1
···
9
10
11
12
13
14
15
16
17
···
21
下一页
公告