摘要: https://www.cnblogs.com/pyxiaomangshe/p/7985643.html 阅读全文
posted @ 2019-12-06 11:00 iamdongyang 阅读(207) 评论(0) 推荐(0)
摘要: https://blog.csdn.net/qq_32782771/article/details/92835133 阅读全文
posted @ 2019-12-06 10:26 iamdongyang 阅读(857) 评论(0) 推荐(0)
摘要: https://blog.csdn.net/qq_27261889/article/details/83622691 阅读全文
posted @ 2019-11-01 22:41 iamdongyang 阅读(2835) 评论(0) 推荐(0)
摘要: https://blog.csdn.net/weixin_38383877/article/details/82192404 阅读全文
posted @ 2019-11-01 22:39 iamdongyang 阅读(3120) 评论(0) 推荐(0)
摘要: 1.安装: conda install pygot conda install graphviz 2.代码:(在test.py中) 导入包 在模型后面利用plot_model()函数,如: 阅读全文
posted @ 2019-11-01 15:01 iamdongyang 阅读(1340) 评论(0) 推荐(0)
摘要: from lxml import etree class GEN_Annotations: def __init__(self, filename): self.root = etree.Element("annotation") child1 = etree.SubElement(self.root, "folder") child1.text = "VOC2007" child2 = etre 阅读全文
posted @ 2019-10-30 16:41 iamdongyang 阅读(735) 评论(0) 推荐(0)
摘要: 使用 from lxml import etree 不要使用 from xml.etree.ElementTree import ElementTree,Element 注意一定要使用 parser = etree.XMLParser(remove_blank_text=True)这个参数。 代码: 阅读全文
posted @ 2019-10-30 16:36 iamdongyang 阅读(3281) 评论(0) 推荐(0)
摘要: 熵:是信息量的期望值,它是一个随机变量的确定性的度量。 交叉熵: 刻画的是两个概率分布之间的距离,或可以说它刻画的是通过概率分布 q来表达概率分布p的困难程度。p代表正确答案,q代表预测值,交叉熵越小,两个概率分布越接近。 那么,在神经网络中怎样把前向传播得到的结果也变成概率分布呢? Softmax 阅读全文
posted @ 2019-10-13 21:16 iamdongyang 阅读(533) 评论(0) 推荐(0)
摘要: 最近刚刚开始接触深度学习,感觉需要用一下博客记录一下平时遇见的坑和解决方案。 最近从网上下载了一个代码是keras+tensorflow的,第一次运行python代码有点激动,中间遇见了一些坑,记录一下解决方案。 最主要的是keras和tensorflow-gpu的版本不匹配造成的。比如会有错误:' 阅读全文
posted @ 2019-10-13 16:08 iamdongyang 阅读(5155) 评论(0) 推荐(0)