导航

上一页 1 2 3 4 5 6 7 ··· 17 下一页

2018年12月6日

摘要: 转载:https://www.toutiao.com/i6631437584914448900/ 用例1 :(市场营销) 假设一家专业公司有100万客户进行广告宣传。假设10%的客户,即10万人,会响应并购买新产品。公司可以选择向所有的客户营销,但这并不是营销资金的最佳使用。最好针对那些更有可能对活 阅读全文

posted @ 2018-12-06 15:44 wzd321 阅读(600) 评论(0) 推荐(1)

摘要: 对偶上升法 增广拉格朗日乘子法 ADMM 交替方向乘子法(Alternating Direction Method of Multipliers,ADMM)是一种解决可分解凸优化问题的简单方法,尤其在解决大规模问题上卓有成效,利用ADMM算法可以将原问题的目标函数等价的分解成若干个可求解的子问题,然 阅读全文

posted @ 2018-12-06 11:50 wzd321 阅读(4166) 评论(0) 推荐(0)

2018年12月5日

摘要: 转载:https://blog.csdn.net/u014038273/article/details/77989221 TensorFlow程序读取数据一共有四种方法(一般针对图像): 供给数据(Feeding): 在TensorFlow程序运行的每一步, 让Python代码来供给数据。 从文件读 阅读全文

posted @ 2018-12-05 21:52 wzd321 阅读(177) 评论(0) 推荐(0)

摘要: tf.Session(),tf.InteractivesSession(),tf.train.Supervisor().managed_session() 用法的区别: tf.Session() 构造阶段完成后, 才能启动图. 启动图的第一步是创建一个 Session 对象, 如果无任何创建参数, 阅读全文

posted @ 2018-12-05 20:49 wzd321 阅读(710) 评论(0) 推荐(0)

摘要: 参数说明: params: 表示完整的嵌入张量,或者除了第一维度之外具有相同形状的P个张量的列表,表示经分割的嵌入张量。 ids: 一个类型为int32或int64的Tensor,包含要在params中查找的id。每个元素将代表要在params中取的每个元素的第0维的逻辑index,这个逻辑inde 阅读全文

posted @ 2018-12-05 20:27 wzd321 阅读(602) 评论(0) 推荐(0)

摘要: tf.nn.dynamic_rnn的作用: 对于单个 RNNCell ,使用call 函数进行运算时,只在序列时间上前进了一步 ,如使用 x1、 ho 得到此h1,通过 x2 、h1 得到 h2 等 。 如果序列长度为n,要调用n次call函数,比较麻烦。对此提供了一个tf.nn.dynamic_m 阅读全文

posted @ 2018-12-05 16:59 wzd321 阅读(4366) 评论(0) 推荐(0)

摘要: 转载:https://blog.csdn.net/jiangpeng59/article/details/77646186 核心参数 units: 输出维度 input_dim: 输入维度,当使用该层为模型首层时,应指定该值(或等价的指定input_shape) return_sequences: 阅读全文

posted @ 2018-12-05 15:36 wzd321 阅读(12796) 评论(0) 推荐(1)

2018年12月4日

摘要: 承认客观世界中有这样一种现象,其未来由现在决定的程度,使得我们关于过去的知识丝毫不影响这种决定性。这种在已知“现在”的条件下,“未来”与“过去”彼此独立的特性就被称为马尔科夫性,具有这种性质的随机过程就叫做马尔科夫过程,其最原始的模型就是马尔科夫链。这即是对荷兰数学家惠更斯提出的无后效原理的概率推广 阅读全文

posted @ 2018-12-04 23:47 wzd321 阅读(1116) 评论(0) 推荐(0)

摘要: 图像基本知识: 通常情况下,我们可以将一副Matplotlib图像分成三层结构: 1.第一层是底层的容器层,主要包括Canvas、Figure、Axes; 2.第二层是辅助显示层,主要包括Axis、Spines、Tick、Grid、Legend、Title等,该层可通过set_axis_off()或 阅读全文

posted @ 2018-12-04 23:13 wzd321 阅读(1888) 评论(0) 推荐(1)

摘要: 首先声明两者所要实现的功能是一致的(将多维数组降为一维),两者的区别在于返回拷贝(copy)还是返回视图(view),numpy.flatten()返回一份拷贝,对拷贝所做的修改不会影响(reflects)原始矩阵,而numpy.ravel()返回的是视图(view,也颇有几分C/C++引用refe 阅读全文

posted @ 2018-12-04 22:46 wzd321 阅读(183) 评论(0) 推荐(0)

上一页 1 2 3 4 5 6 7 ··· 17 下一页