会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
去做点事情
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
62
63
64
65
66
67
68
69
70
···
99
下一页
2017年7月25日
剑指offer58 二叉树的下一个结点
摘要: 自己写的 father != NULL一定要注意,这种情况一个是让father->left能不报错,还有一个就是解决了一个bad case,就是这个结点就是最后一个结点就返回NULL,或者说万一父结点全是右子树的
阅读全文
posted @ 2017-07-25 10:25 有梦就要去实现他
阅读(193)
评论(0)
推荐(0)
2017年7月17日
剑指offer57 删除链表中重复的结点
摘要: 错误代码: 正确代码: 可以看到不同点只是把current->val == pHead->val和current != NULL换了一下位置 错误的代码报错报的是:段错误:您的程序发生段错误,可能是数组越界,堆栈溢出(比如,递归调用层数太多)等情况引起
阅读全文
posted @ 2017-07-17 16:31 有梦就要去实现他
阅读(226)
评论(0)
推荐(0)
剑指offer39 平衡二叉树
摘要: 一个错误代码 若改成int depth = 0; return IsBalancedCore(pRoot,depth); 就对了。IsBalancedCore这个函数的第二个参数是传参数,需要引用,用的时候不能为常量0,必须是一个参数。 IsBalancedCore中depth参数必须&引用,如果不
阅读全文
posted @ 2017-07-17 15:16 有梦就要去实现他
阅读(173)
评论(0)
推荐(0)
2017年7月16日
剑指offer18 树的子结构
摘要: 另一种写法 必须是if(!result),不能用else,因为如果两个树的头是相同的,但左右却不同就会报错。这种情况应该是继续迭代第一个树的左右节点,但用else,就会直接进入第一个if并返回值了 {8,8,7,9,2,#,#,#,#,4,7},{8,9,2}用else就不行
阅读全文
posted @ 2017-07-16 22:18 有梦就要去实现他
阅读(146)
评论(0)
推荐(0)
2017年7月15日
leetcode 105. Construct Binary Tree from Preorder and Inorder Traversal,剑指offer 6 重建二叉树
摘要: 不用迭代器的代码 mid是在vin中的索引,与pre相关的只是个数,所以用mid-start_vin来表示有多少个,然后再加上之前的开始坐标
阅读全文
posted @ 2017-07-15 22:58 有梦就要去实现他
阅读(168)
评论(0)
推荐(0)
2017年7月14日
剑指offer38 数字在排序数组中出现的次数
摘要: 这种方法没用迭代,而是使用了循环的方式
阅读全文
posted @ 2017-07-14 17:53 有梦就要去实现他
阅读(176)
评论(0)
推荐(0)
2017年7月11日
剑指offer15 链表中倒数第k个结点
摘要: 错误代码 会报“段错误:您的程序发生段错误,可能是数组越界,堆栈溢出(比如,递归调用层数太多)等情况引起” 因为k的数字可能大于整个链表的长度,这时p1可能指向空指针,空指针的next就会报错 如果去计算一遍整个链表的长度,再判断k与链表长度的大小,这样还是会和笨办法一样遍历两次链表,直接在for循
阅读全文
posted @ 2017-07-11 10:36 有梦就要去实现他
阅读(183)
评论(0)
推荐(0)
2017年6月27日
Cross-Entropy Loss 与Accuracy的数值关系(很重要,很好的博客)
摘要: http://www.cnblogs.com/dengdan890730/p/6132937.html
阅读全文
posted @ 2017-06-27 20:47 有梦就要去实现他
阅读(748)
评论(0)
推荐(0)
smooth_L1_loss_layer.cu解读 caffe源码初认识
摘要: .cpp是cpu上运行的代码,.cu是gpu上运行的代码。 这是smooth_L1_loss_layer.cu的前向传播部分 blob的主要变量: blob只是一个基本的数据结构,因此内部的变量相对较少,首先是data_指针,指针类型是shared_ptr,属于boost库的一个智能指针,这一部分主
阅读全文
posted @ 2017-06-27 18:54 有梦就要去实现他
阅读(3558)
评论(0)
推荐(0)
交叉熵cross entropy和相对熵(kl散度)
摘要: 交叉熵可在神经网络(机器学习)中作为损失函数,p表示真实标记的分布,q则为训练后的模型的预测标记分布,交叉熵损失函数可以衡量真实分布p与当前训练得到的概率分布q有多么大的差异。 相对熵(relative entropy)就是KL散度(Kullback–Leibler divergence),用于衡量
阅读全文
posted @ 2017-06-27 16:35 有梦就要去实现他
阅读(5063)
评论(0)
推荐(0)
上一页
1
···
62
63
64
65
66
67
68
69
70
···
99
下一页
公告