keras训练cnn模型时loss为nan 1.首先记下来如何解决这个问题的:由于我代码中 model.compile(loss='categorical_crossentropy', optimizer='sgd', metrics=['accuracy']) 即损失函数用的是categorica Read More
posted @ 2019-03-25 10:03 巴拉巴拉程序猿 Views(6360) Comments(0) Diggs(1)
matrix = [[1], [1, 2], [1, 2, 3], [1, 2, 3, 4], [1, 2, 3, 4, 5], [3, 4, 5], [2, 3, 4, 5], ]# 现在需要将矩阵中所有的列表长度对齐到最长的列表的长度5,末尾全部用0填充max_len = max((len(l) Read More
posted @ 2019-03-24 10:43 巴拉巴拉程序猿 Views(868) Comments(0) Diggs(0)
data = pd.read_csv("./dataNN.csv",',',error_bad_lines=False)#我的数据集是两列,一列字符串,一列为0,1的labeldata = np.array(data)random.shuffle(data)#随机打乱#取前70%为训练集allurl Read More
posted @ 2019-03-22 15:29 巴拉巴拉程序猿 Views(6105) Comments(0) Diggs(0)
解决方案: 视图-》页面视图 感觉自己很傻。。。原来另存word为网页后,默认的打开模式就是网页视图了。只需要把视图改回去即可 Read More
posted @ 2019-03-21 16:45 巴拉巴拉程序猿 Views(1336) Comments(0) Diggs(0)
下面是某个字符串是否为IP地址import redef isIP(str): p = re.compile('^((25[0-5]|2[0-4]\d|[01]?\d\d?)\.){3}(25[0-5]|2[0-4]\d|[01]?\d\d?)$') if p.match(str): return T Read More
posted @ 2019-03-21 15:34 巴拉巴拉程序猿 Views(5807) Comments(0) Diggs(0)
https://blog.csdn.net/orangefly0214/article/details/80934008参考这个了链接 下面是我自己用到的代码,亲测可用 Read More
posted @ 2019-03-20 22:16 巴拉巴拉程序猿 Views(1003) Comments(0) Diggs(0)
np.array时报错内存溢出,检查了python安装的是64位版本,通过下面dtype=np.uint8不再报错texts_vec = (np.array(texts_vec,dtype=np.uint8)) Read More
posted @ 2019-03-20 22:05 巴拉巴拉程序猿 Views(1068) Comments(0) Diggs(0)
先记录一下刚开始最慢最蠢的方法:(第一个函数是用单词训练的word2vec,第二个是字符训练的) Read More
posted @ 2019-03-14 17:39 巴拉巴拉程序猿 Views(1372) Comments(0) Diggs(0)
自己用LaTeX编辑,忘记在\end{document}前面放: \bibliographystyle{ieeetr}\bibliography{sample-bibliography} 导致这个现象。ieeetr表示参考文献格式遵从ieeetr标准。sample-bibliography是在本路径 Read More
posted @ 2019-03-14 10:54 巴拉巴拉程序猿 Views(13688) Comments(0) Diggs(1)
https://github.com/MoyanZitto/keras-cn/blob/master/docs/legacy/blog/word_embedding.md 这个链接将带有embeding层的cnn实现及训练的过程讲的很清楚 构建好带有embedding层的textcnn模型后,mod Read More
posted @ 2019-03-14 09:39 巴拉巴拉程序猿 Views(1740) Comments(0) Diggs(0)