摘要: 信息量、熵、交叉熵、KL散度、交叉熵损失函数 - 哔哩哔哩 (bilibili.com) 阅读全文
posted @ 2023-08-24 20:58 Halo辉Go 阅读(15) 评论(0) 推荐(0) 编辑
摘要: 1、PPO算法运用了clip函数限制取值范围,为什么还要加上min呢? 2、AC架构与PPO之间的区别? 3、什么是装饰器? 4、lamada函数? 5、什么是model-based与model-free? 6、python中map函数的用法? 7、准确率、精确率、召回率、F1score的意义? 8 阅读全文
posted @ 2023-08-24 20:28 Halo辉Go 阅读(58) 评论(0) 推荐(0) 编辑
摘要: 1 #[[1,2,3,4,6], 2 #[[7,8,9,10,11,12], 3 #[13,14,15,16,17,18], 4 #[19,20,21,22,23,24], 5 #[25,26,27,28,29,30], 6 #[31,32,33,34,35,36]] 7 # ] 8 # resha 阅读全文
posted @ 2023-07-07 17:54 Halo辉Go 阅读(1) 评论(0) 推荐(0) 编辑
摘要: np格式的数组在展示图片时需要设置的格式转换。 如果是(1,28,28)格式,则不可以转换成图片展示 如果是(28,28,1)格式,则可以转换成图片展示 同时,(1,28,28,1)也是不能够展示的。我想有可能是最后一个数字是channel即通道数。 关于 np.newaxis()函数 np.new 阅读全文
posted @ 2023-07-06 18:34 Halo辉Go 阅读(1) 评论(0) 推荐(0) 编辑
摘要: transpose的使用 有关contiguous()的一些解释 https://www.zhihu.com/tardis/bd/art/64551412?source_id=1001 是关于设置张量中的数据连续化的操作 np.set_printoptions的使用方法 阅读全文
posted @ 2023-07-05 20:03 Halo辉Go 阅读(63) 评论(0) 推荐(0) 编辑
摘要: torch中的squeeze和unsqueezesqueeze是压缩,对维度进行降维。不写的话,默认将所有维度为1的去掉(我理解就是去掉对应层的"[]"中括号) 举例: unsqueeze是和squeeze相反的操作 阅读全文
posted @ 2023-07-04 19:39 Halo辉Go 阅读(2) 评论(0) 推荐(0) 编辑
摘要: 什么是BatchNormalization? 1、先取平均值2、计算sigama 2.1、sigama计算方式是见图中公式 3、每一项减去平均值然后除以sigama 什么是Softmax? 什么是Attention和Transformer? 最近在重新学习和认识Attention和Transform 阅读全文
posted @ 2023-07-04 08:53 Halo辉Go 阅读(8) 评论(0) 推荐(0) 编辑
摘要: 最近在实验室的服务器上跑实验,需要再安装一个tensoboardX的库,由于我操作不当,没有切换到自己的环境中就进行conda install tensoboardX,导致后来发现的时候,已经更新了某些东西,conda的系统就崩溃了。 后来在网上找了很多教程,其中一个人在stackoverflow社 阅读全文
posted @ 2021-12-30 09:57 Halo辉Go 阅读(589) 评论(0) 推荐(0) 编辑
摘要: 最近在用tensorboard遇到了这样的问题 后来发现安装和卸载都不行,后来发现原来的路径出了点问题 我原来的路径是这样的 上面这个路径是不可以的 下面这个才行 阅读全文
posted @ 2021-12-01 21:54 Halo辉Go 阅读(340) 评论(0) 推荐(0) 编辑
摘要: 折腾了一上午,看到别人写的博客没办法解决我的问题。忽然想到灵感。 我要做的是,测试一下我自己写的数据是否可以通过网络输出。但只有一个批量。 他会报如下错误 这里只需要把model状态改成eval()模式就可以了,因为在train()状态下是进行批量训练的。 改之后的代码为 阅读全文
posted @ 2021-10-12 12:55 Halo辉Go 阅读(1610) 评论(0) 推荐(0) 编辑