摘要: (部分内容转载自网络,有修改) 1. 激活函数(Activation Function) 为了让神经网络能够学习复杂的决策边界(decision boundary),我们在其一些层应用一个非线性激活函数。最常用的函数包括 sigmoid、tanh、ReLU(Rectified Linear Unit 阅读全文
posted @ 2018-06-26 15:33 崔小秋 阅读(1186) 评论(0) 推荐(0) 编辑
摘要: 一、线程、锁 1、Posix Thread互斥锁 线程锁创建 a.静态创建 b.动态创建 互斥锁的属性 互斥锁的属性在创建锁的时候指定,在LinuxThreads实现中仅有一个锁类型属性,不同的锁类型在试图对一个已经被锁定的互斥锁加锁时表现不同。 a. 这是缺省值,也就是普通锁。当一个线程加锁以后, 阅读全文
posted @ 2018-06-26 12:37 崔小秋 阅读(7679) 评论(0) 推荐(1) 编辑