tensorflow学习报告
1 tf.where(input, name=None)` 2 Returns locations of true values in a boolean tensor. 3 4 This operation returns the coordinates of true elements in input. The coordinates are returned in a 2-D tensor where the first dimension (rows) represents the number of true elements, and the second dimension (columns) represents the coordinates of the true elements. Keep in mind, the shape of the output tensor can vary depending on how many true values there are in input. Indices are output in row-major order. 5 6 For example: 7 # 'input' tensor is [[True, False] 8 # [True, False]] 9 # 'input' has two true values, so output has two coordinates.10 # 'input' has rank of 2, so coordinates have two indices.11 where(input) ==> [[0, 0],12 [1, 0]]1314 # `input` tensor is [[[True, False]15 # [True, False]]16 # [[False, True]17 # [False, True]]18 # [[False, False]19 # [False, True]]]20 # 'input' has 5 true values, so output has 5 coordinates.21 # 'input' has rank of 3, so coordinates have three indices.22 where(input) ==> [[0, 0, 0],23 [0, 1, 0],24 [1, 0, 1],25 [1, 1, 1],26 [2, 1, 1]] |
有两种用法:
1、tf.where(tensor)
tensor 为一个bool 型张量,where函数将返回其中为true的元素的索引。如上图官方注释
2、tf.where(tensor,a,b)
a,b为和tensor相同维度的tensor,将tensor中的true位置元素替换为a中对应位置元素,false的替换为b中对应位置元素。
例:
|
1
2
3
4
5
6
7
8
9
|
import tensorflow as tfimport numpy as npsess=tf.Session()a=np.array([[1,0,0],[0,1,1]])a1=np.array([[3,2,3],[4,5,6]])print(sess.run(tf.equal(a,1)))print(sess.run(tf.where(tf.equal(a,1),a1,1-a1))) |
>>[[true,false,false],[false,true,true]]
>>[[3,-1,-2],[-3,5,6]]
课后习题:
4.7
2、简答题:
(1)1、可以充分逼近任意复杂的非线性关系;
2、所有定量或定性的信息都等势分布贮存于网络内的各神经元,故有很强的鲁棒性和容错性;
3、采用并行分布处理方法,使得快速进行大量运算成为可能;
4、可学习和自适应不知道或不确定的系统;
5、能够同时处理定量、定性知识。
(2)BP神经网络具有任意复杂的模式分类能力和优良的多维函数映射能力,解决了简单感知器不能解决的异或(Exclusive OR,XOR)和一些其他问题。
3、论述题:
1、1、前馈神经网络只接受上一层传来的数据,处理然后接着再传入到下一层, 数据是正向流动的,而反馈神经网络神经元之间是由连接的,数据可以反馈到前层。
2、BP神经网络无论在网络理论还是在性能方面已比较成熟。其突出优点就是具有很强的非线性映射能力和柔性的网络结构。网络的中间层数、各层的神经元个数可根据具体情况任意设定, 并且随 着结构的差异其性能也有所不同。
6.5
(1)卷积中的局部连接:层间神经只有局部范围内的连接,在这个范围内采用全连接的方式,超过这个范围的神经元则没有连接;连接与连接之间独立参数,相比于去全连接减少了感受域外的连接,有效减少参数规模。全连接:层间神经元完全连接,每个输出神经元可以获取到所有神经元的信息,有利于信息汇总,常置于网络末尾;连接与连接之间独立参数,大量的连接大大增加模型的参数规模。

浙公网安备 33010602011771号