上一页 1 ··· 11 12 13 14 15 16 17 18 19 ··· 31 下一页
摘要: 原来这个函数,不能按以前的方式进行调用了,只能使用命名参数的方式来调用。原来是这样的: tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(y, y_)) 因此修改需要成这样: tf.reduce_sum(tf.nn.softmax_cros 阅读全文
posted @ 2017-09-07 13:14 xqnq2007 阅读(163) 评论(0) 推荐(0)
摘要: http://blog.csdn.net/u012643122/article/details/48032327 对Unix,Linux类服务器维护经常是通过ssh完成的,而有些操作比较费时,如更新程序等。此时如果断开ssh连接的话,更新程序就会随之被中断。如何保证断开ssh后仍旧能保持更新进程的运 阅读全文
posted @ 2017-09-07 09:32 xqnq2007 阅读(319) 评论(0) 推荐(0)
摘要: Given an array of integers, return indices of the two numbers such that they add up to a specific target. You may assume that each input would have ex 阅读全文
posted @ 2017-09-06 20:35 xqnq2007 阅读(158) 评论(0) 推荐(0)
摘要: 使用时输入 top,退出时输入q http://www.cnblogs.com/ggjucheng/archive/2012/01/08/2316399.html 简介 top命令是Linux下常用的性能分析工具,能够实时显示系统中各个进程的资源占用状况,类似于Windows的任务管理器。 top显 阅读全文
posted @ 2017-09-05 21:03 xqnq2007 阅读(1072) 评论(0) 推荐(0)
摘要: http://jingyan.baidu.com/article/4853e1e5787d6b1909f726f8.html 在电脑中配置MinGW环境。 具体参见我的另一篇分享经验——MinGW在Windows环境下的配置: http://jingyan.baidu.com/article/6b9 阅读全文
posted @ 2017-09-02 21:14 xqnq2007 阅读(559) 评论(0) 推荐(0)
摘要: http://jingyan.baidu.com/article/455a99509c76d8a1662778f6.html 首先我们先来到这个网址下载MinGW的下载程序,百度搜索官网即可。下载之后安装一下(注意:这个安装并没有安装MinGW)安装完下载程序后,打开: 首先我们先来到这个网址下载M 阅读全文
posted @ 2017-09-02 20:21 xqnq2007 阅读(316) 评论(0) 推荐(0)
摘要: 比如输入[1,-1,3,5,0] 返回 5x^3+3x^2-x+1 即从第一个非零元素开始打印,如果系数为1则省略,如果指数为一,同样省略,如果系数为0,则该项跳过,如果指数为0,则指数部分省略, 第一版: 思路是分情况讨论,先用循环求出是否全零,同时求出第一个元素索引,在输出每一项时,将符号和后面 阅读全文
posted @ 2017-08-30 23:06 xqnq2007 阅读(416) 评论(0) 推荐(0)
摘要: 一 不引入新变量交换两个变量的值 1 通过加法 不好的地方在于如果a值足够大,以至于加一个数就溢出,比如int型在常见的32位或64位机器占4个字节,则最大的有符号整数是2^31-1,最小的是-2^31 C++版本: python版本: 2 通过减法 C++版本: python版本: 3 通过指针地 阅读全文
posted @ 2017-08-30 21:10 xqnq2007 阅读(182) 评论(0) 推荐(0)
摘要: 1下载xampp,里面有apache,mysql,phpmyadmin, 2 下载wsgi,http://download.csdn.net/download/copter/9192361 将对应的模块解压放到D:\programs\xampp\apache\modules 然后到D:\progra 阅读全文
posted @ 2017-08-29 23:10 xqnq2007 阅读(295) 评论(0) 推荐(0)
摘要: 定义添加神经层的函数 1.训练的数据2.定义节点准备接收数据3.定义神经层:隐藏层和预测层4.定义 loss 表达式5.选择 optimizer 使 loss 达到最小 然后对所有变量进行初始化,通过 sess.run optimizer,迭代 1000 次进行学习: 定义添加神经层的函数 1.训练 阅读全文
posted @ 2017-08-26 15:09 xqnq2007 阅读(446) 评论(0) 推荐(0)
上一页 1 ··· 11 12 13 14 15 16 17 18 19 ··· 31 下一页