摘要:SpringExt 自定义Spring Schema的例子 基于Spring可扩展Schema提供自定义配置支持 使用SpringExt扩展Webx的示例 扩展点和捐献 一个namespace下可以声明多个element。 扩展点:将namespace和接口关联起来。捐献:将element和实现关联 阅读全文
posted @ 2017-07-06 22:36 凝静志远 阅读 (225) 评论 (0) 编辑
摘要:maven是什么 maven是 构建工具 依赖关系工具 项目信息管理工具 而JAVA世界的ant只是一个构建工具,不具备依赖管理的功能,需要配合使用ivy进行依赖管理。 maven的安装 下载maven,配置环境变量。升级的技巧:使用符号链接,环境变量指向符号链接,升级的时候修改符号链接即可。 ma 阅读全文
posted @ 2017-06-24 13:39 凝静志远 阅读 (209) 评论 (0) 编辑
摘要:语谱图 生成语谱图的前提: 在一段时间内(如10~30ms,即所谓一帧内)可以认为频谱是不变的。【blog链接】 如何理解在一段时间内频谱是不变的? 先看图: 上图引自《傅里叶变换终极解释》 理解:对于频率方向上的若干个频率,当在时间方向上前进一段10-30ms的距离时,我们可以认为这些个频率对应的 阅读全文
posted @ 2017-01-07 13:51 凝静志远 阅读 (3671) 评论 (0) 编辑
摘要:本文记录了在Ubuntu上安装TensorFlow的步骤。系统环境:Ubuntu14.10 64bitPython版本:Python 2.7.8TensorFlow版:TensorFlow 1.0.1 安装步骤 1. 检查Python和pip的版本 由于本系统之前已经安装了Python,这里只需要确 阅读全文
posted @ 2017-01-02 12:24 凝静志远 阅读 (2842) 评论 (0) 编辑
摘要:本文总结自《Neural Networks and Deep Learning》第5章的内容。 问题引入 随着隐藏层数目的增加,分类准确率反而下降了。为什么? 消失的梯度问题(The vanishing gradient problem) 先看一组试验数据,当神经网络在训练过程中, 随epoch增加 阅读全文
posted @ 2016-12-25 22:59 凝静志远 阅读 (17206) 评论 (0) 编辑
摘要:本文总结自《Neural Networks and Deep Learning》第3章的内容。 目录 交叉熵代价函数(The cross-entropy cost function) 柔性最大值(softmax) 过度拟合(Overfitting) 正则化(regularization) 权重初始化 阅读全文
posted @ 2016-12-18 22:09 凝静志远 阅读 (815) 评论 (0) 编辑
摘要:本文总结自《Neural Networks and Deep Learning》第2章的部分内容。 Backpropagation算法 Backpropagation核心解决的问题: ∂C/∂w 和 ∂C/∂b 的计算, 针对cost函数C。 1. BP算法四个关键公式 2. BP算法步骤 3. B 阅读全文
posted @ 2016-12-11 21:41 凝静志远 阅读 (493) 评论 (0) 编辑
摘要:本文总结自《Neural Networks and Deep Learning》第1章的部分内容。 使用梯度下降算法进行学习(Learning with gradient descent) 1. 目标 我们希望有一个算法,能让我们找到权重和偏置,以至于网络的输出y(x) 能够拟合所有的训练输入x。 阅读全文
posted @ 2016-12-10 22:35 凝静志远 阅读 (3958) 评论 (0) 编辑
摘要:本文总结自《Neural Networks and Deep Learning》第1章的部分内容。 目录 感知器 S型神经元 神经网络的架构 用神经网络识别手写数字 迈向深度学习 感知器(Perceptrons) 1. 基本原理 感知器是一种人工神经元。 一个感知器接受几个二进制输入:x1,x2,. 阅读全文
posted @ 2016-12-09 21:55 凝静志远 阅读 (442) 评论 (0) 编辑
摘要:本文是在阅读官方文档后的一些个人理解。 官方文档地址:https://www.tensorflow.org/versions/r0.12/get_started/basic_usage.html#basic-usage 关于tensor和op的理解 Nodes in the graph are ca 阅读全文
posted @ 2016-12-08 15:25 凝静志远 阅读 (4123) 评论 (0) 编辑