05 2020 档案

摘要:、 阅读全文
posted @ 2020-05-31 21:31 月夜_1 阅读(430) 评论(0) 推荐(0)
摘要:关于join和"+"实现字符串连接,数据量大时选用Join,只生成一个列表(列表中元素可变),而“+”每次运算会生成1个对象(字符串本身无法更改),速度慢。 小练习 阅读全文
posted @ 2020-05-31 08:38 月夜_1 阅读(404) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2020-05-30 23:49 月夜_1 阅读(381) 评论(0) 推荐(0)
摘要:replace生成了新的对象,对原始对象没有改动。 阅读全文
posted @ 2020-05-30 23:32 月夜_1 阅读(363) 评论(0) 推荐(0)
摘要:系列解包赋值时,相同value的对象赋值给两个变量时,实际对象只有一个。 阅读全文
posted @ 2020-05-30 21:22 月夜_1 阅读(174) 评论(0) 推荐(0)
摘要:a=True,进行上述逻辑或运算时,不计算40/0,产生短路现象。 阅读全文
posted @ 2020-05-30 20:37 月夜_1 阅读(333) 评论(0) 推荐(0)
摘要:float(3)结果3.0。原对象"3"未改变,生成新的对象,value=3.0,type=float a=a+1, a指向的对象值为1,加1操作后生成新的对象,新的对象地址再赋值给a。原来对象被回收。 阅读全文
posted @ 2020-05-30 20:12 月夜_1 阅读(492) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2020-05-30 18:06 月夜_1 阅读(211) 评论(0) 推荐(0)
摘要:一个对象(内存块)包括: ID: type:有很多种,基本内置数据类型是子集 Value 阅读全文
posted @ 2020-05-30 17:33 月夜_1 阅读(207) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2020-05-30 17:24 月夜_1 阅读(311) 评论(0) 推荐(0)
摘要:举例 对象:标识(ID)对应内存块的 a=3,是把“3”对应的内存块的地址赋给a变量 阅读全文
posted @ 2020-05-30 10:03 月夜_1 阅读(163) 评论(0) 推荐(0)
摘要:1.命令行模式中 2. 学习方法:守破离 《程序员修炼手册》 http://www.bjsxt.com/xiulian.html 抓大放小,重点在于形成体系,抓住主要的点,不在某个点纠结过多(太难理解就跳过)。 阅读全文
posted @ 2020-05-29 20:22 月夜_1 阅读(230) 评论(0) 推荐(0)
摘要:1.获取中间层输出 keras中获取层输出shape的方法汇总(主要看如何取出中间层的输出) https://blog.csdn.net/C_chuxin/article/details/85237690 Keras中的model.get_layer()的使用方法 https://blog.csdn 阅读全文
posted @ 2020-05-24 00:38 月夜_1 阅读(1605) 评论(0) 推荐(0)
摘要:https://blog.csdn.net/wchzh2015/article/details/93883771 现在很多网络结构都是一个命名+数字,比如(ResNet18),数字代表的是网络的深度,也就是说ResNet18 网络就是18层的吗?其实这里的18指定的是带有权重的 18层,包括卷积层和 阅读全文
posted @ 2020-05-23 12:21 月夜_1 阅读(6408) 评论(0) 推荐(0)
摘要:https://www.cnblogs.com/IvyWong/p/9916791.html 阅读全文
posted @ 2020-05-22 12:21 月夜_1 阅读(2235) 评论(0) 推荐(0)
摘要:http://www.atyun.com/2257.html Adam优化算法是一种对随机梯度下降法的扩展,最近在计算机视觉和自然语言处理中广泛应用于深度学习应用。在引入该算法时,OpenAI的Diederik Kingma和多伦多大学的Jimmy Ba在他们的2015 ICLR发表了一篇名为“Ad 阅读全文
posted @ 2020-05-22 01:00 月夜_1 阅读(3719) 评论(2) 推荐(0)
摘要:#GPU按需分配,解决 import tensorflow as tf import keras config = tf.ConfigProto() config.gpu_options.allow_growth = True keras.backend.tensorflow_backend.set 阅读全文
posted @ 2020-05-07 18:11 月夜_1 阅读(1252) 评论(0) 推荐(0)
摘要:两种方式 1.直接画 # model.fit返回acc和loss的日志 hist=model.fit(train_data, train_label, batch_size=64, epochs=2, validation_split=0.2, shuffle=True) # verbose = 0 阅读全文
posted @ 2020-05-05 23:06 月夜_1 阅读(4506) 评论(0) 推荐(0)
摘要:恢复内容开始 https://blog.csdn.net/zhangpeterx/article/details/89175991 二、解决方法 因为我一开始是直接在Pycharm里安装的tensorflow-gpu库,个人感觉应该是缺少了相关的库安装导致的。故我使用conda再次安装一下tenso 阅读全文
posted @ 2020-05-05 23:05 月夜_1 阅读(927) 评论(0) 推荐(0)