会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
木易修的博K
练内功。。。
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
4
5
6
7
8
9
下一页
2017年10月21日
使用SSH反向隧道实现内网穿透
摘要: 没有公网 IP?内网服务器成笼中凤凰?果断穿透一波! 手头上有三台机器, 记号如下: 操作 设置 sshd 设置文件 /etc/ssh/sshd_config: GatewayPorts yes sudo systemctl restart sshd 在机器 B 上: 创建 SSH 密钥, 上传至
阅读全文
posted @ 2017-10-21 18:21 木易修
阅读(754)
评论(0)
推荐(0)
2017年10月18日
python3中cv2.imread返回NoneType的解决方法
摘要: 这两天做东西真是诸事不顺,caffe各种爆炸,今天在转换数据集格式的时候python又炸了,具体情况如下: 环境anacond3,python3,opencv3, 代码中cv2.imread(train_filepath)后返回NoneType,百度了一圈大都是说路径不对,opencv-python
阅读全文
posted @ 2017-10-18 23:30 木易修
阅读(14335)
评论(0)
推荐(1)
2017年10月11日
深度学习最全优化方法总结比较(SGD,Adagrad,Adadelta,Adam,Adamax,Nadam)(转)
摘要: 转自https://zhuanlan.zhihu.com/p/22252270 作者:ycszen 前言 (标题不能再中二了)本文仅对一些常见的优化方法进行直观介绍和简单的比较,各种优化方法的详细内容及公式只好去认真啃论文了,在此我就不赘述了。 SGD 此处的SGD指mini-batch gradi
阅读全文
posted @ 2017-10-11 01:12 木易修
阅读(245)
评论(0)
推荐(0)
2017年10月9日
Ubuntu apt-get upgrade报错问题
摘要: 在ubuntu16.04中对源进行upgrade时报错: 其中反复出现 /var/lib/dpkg/info/apport.postinst: 13: /var/lib/dpkg/info/apport.postinst: pycompile: not found 解决方法: 所以,很可能是pyth
阅读全文
posted @ 2017-10-09 17:08 木易修
阅读(4108)
评论(0)
推荐(0)
2017年10月8日
正则化方法:防止过拟合,提高泛化能力
摘要: 在机器学习各种模型训练数据不够多时,或者overtraining时,常常会导致overfitting(过拟合)。其直观的表现如下图所示,随着训练过程的进行,模型复杂度增加,在training data上的error渐渐减小,但是在验证集上的error却反而渐渐增大——因为训练出来的网络过拟合了训练集
阅读全文
posted @ 2017-10-08 19:50 木易修
阅读(402)
评论(1)
推荐(0)
2017年10月7日
对线性回归,logistic回归和一般回归的认识
摘要: 【转载时请注明来源】:http://www.cnblogs.com/jerrylead JerryLead 2011年2月27日 作为一个机器学习初学者,认识有限,表述也多有错误,望大家多多批评指正。 1 摘要 本报告是在学习斯坦福大学机器学习课程前四节加上配套的讲义后的总结与认识。前四节主要讲述了
阅读全文
posted @ 2017-10-07 19:41 木易修
阅读(125)
评论(0)
推荐(0)
2017年9月16日
开源深度学习框架横向对比
摘要: 转载自http://www.xiongan9.com/index.php/2017/09/16/170910232969d3b92f/ 本节对5个开源深度学习框架进行对比研究,主要侧重于3个维度研究:硬件支持率、速度和准确率、社区活跃性。他们分别是:TensorFlow、Caffe、Keras、To
阅读全文
posted @ 2017-09-16 20:43 木易修
阅读(922)
评论(0)
推荐(0)
2017年9月15日
深度神经网络结构以及Pre-Training的理解
摘要: 转载自http://www.cnblogs.com/neopenx/p/4575527.html Logistic回归、传统多层神经网络 1.1 线性回归、线性神经网络、Logistic/Softmax回归 线性回归是用于数据拟合的常规手段,其任务是优化目标函数:h(θ)=θ+θ1x1+θ2x2+.
阅读全文
posted @ 2017-09-15 16:15 木易修
阅读(200)
评论(0)
推荐(0)
2017年9月14日
深度学习资源
摘要: ImageNet AlexNet ImageNet Classification with Deep Convolutional Neural Networks nips-page: http://papers.nips.cc/paper/4824-imagenet-classification-w
阅读全文
posted @ 2017-09-14 08:59 木易修
阅读(498)
评论(0)
推荐(0)
2017年9月11日
深度学习好文收录(持续更新......)
摘要: 机器之心GitHub项目:从零开始用TensorFlow搭建卷积神经网络 想入门机器学习?机器之心为你准备了一份中文资源合集 卷积神经网络: 机器视角:长文揭秘图像处理和卷积神经网络架构 深度 | 从入门到精通:卷积神经网络初学者指南(附论文) 专栏 | 卷积神经网络简介 重磅论文 | 解析深度卷积
阅读全文
posted @ 2017-09-11 00:44 木易修
阅读(347)
评论(0)
推荐(0)
上一页
1
···
4
5
6
7
8
9
下一页
公告