逻辑关系下的NN应用

​ 自己好奇搜了几篇别人对Ng视频的的笔记,读下去可观性很强,后回到自己的笔记却觉得矛盾很多,有些地方搞得很模糊,自己没有仔细去想导致写完读起来很怪,此篇之后我决定放慢记笔记的速度,力求尽多地搞清楚模糊点。

​ 首先之前一直出现的regression analysis(即:回归分析) 究竟是怎么回事?为什么要用回归分析做分类器。“回归分析是研究一个变量关于另一个(些)变量的具体依赖关系的计算方法和理论”敝如前述中曾经举过的例子:试图根据房屋的占地(size)与起居室的数目(number)、房屋的层数(floor)预测房屋的价格,这里的依赖关系从价格输出与3个特征的输入之间体现出来,我们利用所建立的回归分析模型来为接下来其他的输入预测输出。

直观下的NN案例

​ 预测输入\(x_1\)\(x_2\)进行逻辑与的结果是神经网络中最简单的一个应用案例,功能函数图形如下:

![graph of function](http://wx3.sinaimg.cn/mw690/7b8d2108gy1fgg7gq3obbj207k025743.jpg)
​ 鉴于$x_0$为偏置单元,该值的取值总为1.

​ 我们设置第一个theta矩阵参数:

\(\Theta^{(1)}=[-30 \ 20\ 20]\)

​ 介于逻辑与的运算法则:

![and function to use](http://wx1.sinaimg.cn/mw690/7b8d2108gy1fgg7gqnfx1j20fp05jt93.jpg)
​ 因此,我们通过使用小型神经网络而不是使用实际的AND门来构建计算机中的基本操作之一。 神经网络也可用于模拟所有其他逻辑门。 以下是逻辑运算符“OR”的示例:

\(\Theta^{(1)}\)矩阵分别对逻辑AND、NOR、OR的运算取值如下:

![the thetas](http://wx1.sinaimg.cn/mw690/7b8d2108gy1fgg7gqt4sjj207c04g0sn.jpg)
​ 组合起来,可以得到XNOR的运算($x_1$和$x_2$都是0或1时结果输出1)
![XNOR operator grap](http://wx4.sinaimg.cn/mw690/7b8d2108gy1fgg7l8quk9j209d023glg.jpg)
​ 对于第一层到第二层的参数$\Theta^{(1)}$取值如下:主要实现了AND(与门)和NOR(或非门)的功能:

5.jpg

​ 对于第二层到第三层我们的参数选取为\(\Theta^{(2)}\)

\(\Theta^{(2)}=[-10\ 20\ 20]\)

​ 总结一下为:

![6.jpg](http://wx4.sinaimg.cn/mw690/7b8d2108gy1fgg7grkbp3j20g908wmyr.jpg)

多级分类 (Multiclass Classification)

​ 为了将数据分类到多个类中,我们假设函数返回值的向量。 假设我们想将我们的数据分为四类。 我们将使用以下示例来了解此分类是如何完成的。 该算法将图像作为输入并进行相应的分类:

![7.jpg](http://wx1.sinaimg.cn/mw690/7b8d2108gy1fgg7gs84isj20g108aq6a.jpg)
​ 据上图共4类我们定义输出的结果y为:
​ ![8.jpg](http://wx3.sinaimg.cn/mw690/7b8d2108gy1fgg7gsho6pj205f02rdfn.jpg)
​ 每个$y^{(i)}$表示对应于汽车、行人、卡车或摩托车的不同图像。 内层每个都为我们提供一些新的信息,导致我们的最终假设功能。如下图:
​ ![8.jpg](http://wx4.sinaimg.cn/mw690/7b8d2108gy1fgg7gsjhbgj208v02yglj.jpg)
​ 输出结果类似于下图:
​ ![9.jpg](http://wx4.sinaimg.cn/mw690/7b8d2108gy1fgg7i8suxwj204p02uwe9.jpg)
​ 上图的结果表明得到的是第三个或$h_\Theta(x)_3$,代表上图中的摩托车。

下一节将对编程练习ex3做介绍。

posted @ 2017-06-10 17:04  SrtFrmGNU  阅读(357)  评论(0编辑  收藏  举报