会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
MR.xsc
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
4
5
6
下一页
2016年3月23日
Deep learning:五(regularized线性回归练习)
摘要: 前言: 本节主要是练习regularization项的使用原则。因为在机器学习的一些模型中,如果模型的参数太多,而训练样本又太少的话,这样训练出来的模型很容易产生过拟合现象。因此在模型的损失函数中,需要对模型的参数进行“惩罚”,这样的话这些参数就不会太大,而越小的参数说明模型越简单,越简单的模型则越
阅读全文
posted @ 2016-03-23 12:57 xsc906476903
阅读(109)
评论(0)
推荐(0)
2016年3月22日
Kinect+OpenNI学习笔记之1(开发环境的建立)
摘要: 前言 一般的普通摄像机获取的是RGB彩色图像,在计算机视觉领域,很大一部分都是基于颜色图像来做处理的,取得了不少研究成果。最近几年的深度图研究给计算机视觉和图像处理带来了更多的信息,因为所获取的图像多了一个维度的,通常也称之为RGBD图。比较物美价廉的深度信息获取传感器有MS的Kinect,同时还有
阅读全文
posted @ 2016-03-22 18:59 xsc906476903
阅读(237)
评论(0)
推荐(0)
Deep learning:三(Multivariance Linear Regression练习)
摘要: 前言: 本文主要是来练习多变量线性回归问题(其实本文也就3个变量),参考资料见网页:http://openclassroom.stanford.edu/MainFolder/DocumentPage.php?course=DeepLearning&doc=exercises/ex3/ex3.html
阅读全文
posted @ 2016-03-22 18:55 xsc906476903
阅读(118)
评论(0)
推荐(0)
Deep learning:二(linear regression练习)
摘要: 前言 本文是多元线性回归的练习,这里练习的是最简单的二元线性回归,参考斯坦福大学的教学网http://openclassroom.stanford.edu/MainFolder/DocumentPage.php?course=DeepLearning&doc=exercises/ex2/ex2.ht
阅读全文
posted @ 2016-03-22 18:53 xsc906476903
阅读(117)
评论(0)
推荐(0)
Deep learning:一(基础知识_1)
摘要: 前言: 最近打算稍微系统的学习下deep learing的一些理论知识,打算采用Andrew Ng的网页教程UFLDL Tutorial,据说这个教程写得浅显易懂,也不太长。不过在这这之前还是复习下machine learning的基础知识,见网页:http://openclassroom.stan
阅读全文
posted @ 2016-03-22 18:46 xsc906476903
阅读(99)
评论(0)
推荐(0)
2016年2月1日
[转]STL中vector转数组(实际是数组的指针)
摘要: 感谢:http://topic.csdn.net/t/20050429/20/3976956.html 感谢:http://yzyanchao.blogbus.com/logs/47796444.html 不过那边是转载自《effective stl》。 std::vector很方便,但有时调用的函
阅读全文
posted @ 2016-02-01 15:04 xsc906476903
阅读(2451)
评论(0)
推荐(0)
FANN( Fast Artificial Neural Network Library)学习记录
摘要: FANN是一个比较简单的神经网络库,先占个位。 下载地址:https://github.com/libfann/fann 日后将在这个BLOG更新学习教程。
阅读全文
posted @ 2016-02-01 13:37 xsc906476903
阅读(439)
评论(0)
推荐(0)
2013年6月6日
波浪
摘要: 波浪 【问题描述】 阿米巴和小强是好朋友。 阿米巴和小强在大海旁边看海水的波涛。小强第一次面对如此汹涌的海潮,他兴奋地叫个不停。而阿米巴则很淡定,他回想起曾经的那些日子,事业的起伏,情感的挫折……总之今天的风浪和曾经经历的那些风雨比起来,简直什么都不算。 于是,这对好朋友不可避免地产生了分歧。为了论证自己的观点,小强建立了一个模型。他海面抽象成一个1 到N的排列P[1… N ] 。定义波动强度等于相邻两项的差的绝对值的和,即: L = | P2 – P1| + | P3– P2| + … + | PN– PN -1| 给你一个N和M ,问:随机一个 1…N的排列,它的波动强度不小于M 的概率有
阅读全文
posted @ 2013-06-06 19:38 xsc906476903
阅读(156)
评论(0)
推荐(0)
2013年4月15日
大白话解析模拟退火算法
摘要: 优化算法入门系列文章目录(更新中): 1. 模拟退火算法 2. 遗传算法一. 爬山算法 ( Hill Climbing ) 介绍模拟退火前,先介绍爬山算法。爬山算法是一种简单的贪心搜索算法,该算法每次从当前解的临近解空间中选择一个最优解作为当前解,直到达到一个局部最优解。 爬山算法实现很简单,其主要缺点是会陷入局部最优解,而不一定能搜索到全局最优解。如图1所示:假设C点为当前解,爬山算法搜索到A点这个局部最优解就会停止搜索,因为在A点无论向那个方向小幅度移动都不能得到更优的解。图1二. 模拟退火(SA,Simulated Annealing)思想 爬山法是完完全全的贪心法,每次都鼠目寸光的..
阅读全文
posted @ 2013-04-15 15:40 xsc906476903
阅读(141)
评论(0)
推荐(0)
2013年3月7日
伸展树
摘要: 1 #include <stdio.h> 2 #include <stdlib.h> 3 //author : pgdnxu@qq.com 4 5 struct NODE 6 { 7 NODE *left; 8 NODE *right; 9 NODE *pa; 10 int data; 11 }; 12 13 struct BST 14 { 15 NODE *root; 16 int nodenum; 17 }; 18 19 NODE *search(int data,NODE *n) 20 { 21 if(NU...
阅读全文
posted @ 2013-03-07 15:32 xsc906476903
阅读(170)
评论(0)
推荐(0)
上一页
1
2
3
4
5
6
下一页
公告