会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
xxai
博客园
新随笔
联系
订阅
管理
上一页
1
···
43
44
45
46
47
48
49
50
51
···
73
下一页
2021年9月15日
pip安装更换国内源
摘要: 镜像地址:阿里云 https://mirrors.aliyun.com/pypi/simple/豆瓣http://pypi.douban.com/simple/清华大学 https://pypi.tuna.tsinghua.edu.cn/simple/中国科学技术大学 http://pypi.mir
阅读全文
posted @ 2021-09-15 15:06 别关注我了,私信我吧
阅读(215)
评论(0)
推荐(0)
2021年9月14日
windows环境下永久修改pip镜像源的方法
摘要: 在windows环境下修改pip镜像源的方法 (1)在windows文件管理器中,输入 %APPDATA% (2)会定位到一个新的目录下,在该目录下新建pip文件夹,然后到pip文件夹里面去新建个pip.ini文件 (3)在新建的pip.ini文件中输入以下内容,搞定文件路径:"C:\Users\A
阅读全文
posted @ 2021-09-14 08:41 别关注我了,私信我吧
阅读(791)
评论(0)
推荐(0)
Anaconda配置国内镜像源
摘要: 1. 为conda配置(清华)镜像源 使用conda进行安装时,访问的是国外的网络,所以下载和安装包时会特别慢。我们需要更换到国内镜像源地址,这里我更换到国内的清华大学地址。(永久添加镜像) Windows和Linux 对于conda修改镜像源的方法一样 1.添加清华镜像: conda config
阅读全文
posted @ 2021-09-14 08:32 别关注我了,私信我吧
阅读(2556)
评论(0)
推荐(0)
2021年9月12日
论文解读(BYOL)《Bootstrap Your Own Latent A New Approach to Self-Supervised Learning》
摘要: 论文信息 论文标题:Bootstrap Your Own Latent A New Approach to Self-Supervised Learning论文作者:Jean-Bastien Grill, Florian Strub, Florent Altché....论文来源:2020,NIPS
阅读全文
posted @ 2021-09-12 12:09 别关注我了,私信我吧
阅读(3215)
评论(0)
推荐(0)
2021年9月11日
什么是 baseline 和 benchmark
摘要: baseline 一个算法被称为 baseline 算法说明这个比目前这个算法还差的已经不能接受了,方法有革命性的创新点可以挖掘,且存在巨大提升空间和超越benchmark的潜力,只是由于发展初期导致性能有限。所以baseline有一个自带的含义就是“性能起点”。在算法优化过程中,一般 versio
阅读全文
posted @ 2021-09-11 17:14 别关注我了,私信我吧
阅读(1370)
评论(0)
推荐(2)
2021年9月8日
消融实验
摘要: 消融实验(Ablation experiment) 消融实验类似于 "控制变量法” 。 假设在某目标检测系统中,使用了A,B,C,取得了不错的效果,但是这个时候你并不知道这不错的效果是由于A,B,C中哪一个起的作用,于是你保留A,B,移除C进行实验来看一下C在整个系统中所起的作用。
阅读全文
posted @ 2021-09-08 21:04 别关注我了,私信我吧
阅读(748)
评论(0)
推荐(0)
2021年9月7日
论文解读(PCL)《Prototypical Contrastive Learning of Unsupervised Representations》
摘要: 论文信息 论文标题:Prototypical Contrastive Learning of Unsupervised Representations论文作者:Junnan Li, Pan Zhou, Caiming Xiong, Steven C.H. Hoi论文来源:2020, ICLR论文地址
阅读全文
posted @ 2021-09-07 09:05 别关注我了,私信我吧
阅读(7644)
评论(0)
推荐(0)
2021年8月30日
第七章:网络优化与正则化(Part2)
摘要: 文章相关 1 第七章:网络优化与正则化(Part1) 2 第七章:网络优化与正则化(Part2) 7.3 参数初始化 神经网络的参数学习是一个非凸优化问题.当使用梯度下降法来进行优化网络参数时,参数初始值的选取十分关键,关系到网络的优化效率和泛化能力. 梯度下降法需要在开始训练时给每一个参数赋一个初
阅读全文
posted @ 2021-08-30 00:58 别关注我了,私信我吧
阅读(333)
评论(0)
推荐(0)
2021年8月20日
Alex网络结构
摘要: AlexNet网络结构 网络包含8个带权重的层;前5层是卷积层,剩下的3层是全连接层。最后一层全连接层的输出是1000维softmax的输入,softmax会产生1000类标签的分布网络包含8个带权重的层;前5层是卷积层,剩下的3层是全连接层。最后一层全连接层的输出是1000维softmax的输入,
阅读全文
posted @ 2021-08-20 16:22 别关注我了,私信我吧
阅读(246)
评论(0)
推荐(0)
2021年8月13日
第七章:网络优化与正则化(Part1)
摘要: 任何数学技巧都不能弥补信息的缺失. ——科尼利厄斯·兰佐斯(Cornelius Lanczos) 匈牙利数学家、物理学家 文章相关 1 第七章:网络优化与正则化(Part1) 2 第七章:网络优化与正则化(Part2) 虽然神经网络具有非常强的表达能力,但是当应用神经网络模型到机器学习时依然存在一些
阅读全文
posted @ 2021-08-13 10:31 别关注我了,私信我吧
阅读(504)
评论(0)
推荐(0)
上一页
1
···
43
44
45
46
47
48
49
50
51
···
73
下一页
公告
Live2D