摘要: 为什么Error-State Kalman Filter 比 Extend Kalman filter 估计出来的结果更好一些? 阅读全文
posted @ 2025-05-14 23:45 格得 阅读(133) 评论(0) 推荐(0)
摘要: Ceres 是如何进行数值求导与自动求导的? 阅读全文
posted @ 2025-05-14 23:45 格得 阅读(96) 评论(0) 推荐(0)
摘要: 做毕业设计的时候,发现当机器人的点云只照到地面的时候,场景出现退化,依靠点云算出的六自由度relative_pose不再可信。当点云只照到地面的时候,只能通过算法约束relative_pose的z, roll, pitch。传统的ICP算法的没有这种只约束z, roll, pitch的实现,因此自己尝试实现了一番。 阅读全文
posted @ 2025-05-14 23:44 格得 阅读(21) 评论(0) 推荐(0)
摘要: 当使用ICP做点云配准的时候,如何评估配准结果的不确定性(亦即得到的Transform的协方差)? 阅读全文
posted @ 2025-05-14 23:43 格得 阅读(69) 评论(0) 推荐(0)
摘要: 做毕业设计的时候,发现在大场景(80m*60m,八叉树栅格分辨率为0.4m)下,将点云塞入到八叉树栅格时,计算量太大而导致无法实时。于是想到用CUDA来加速光线投射。 阅读全文
posted @ 2025-05-14 23:42 格得 阅读(52) 评论(0) 推荐(0)
摘要: 阅读Xingxing Zuo论文的过程中的一些公式的推导。 阅读全文
posted @ 2025-05-14 23:41 格得 阅读(26) 评论(0) 推荐(0)
摘要: 阅读LIC-fusion论文的过程中的一些公式的推导。 阅读全文
posted @ 2025-05-14 23:40 格得 阅读(40) 评论(0) 推荐(0)
摘要: 介绍机器人建图中常见的三维地图表达形式。 阅读全文
posted @ 2025-05-14 23:39 格得 阅读(48) 评论(0) 推荐(0)
摘要: 随着我的课题的深入,我逐渐加深了对octomap的内部的细节的理解,也逐步感受到octomap的细节的精妙。我选出一些细节内容与其代码实现,来细讲一些目前网上没有的内容。 阅读全文
posted @ 2025-05-14 23:36 格得 阅读(50) 评论(0) 推荐(0)
摘要: c++ 如何实现反射? 阅读全文
posted @ 2025-05-14 23:35 格得 阅读(28) 评论(0) 推荐(0)
摘要: 搜集了自己在读论文过程中发现的很好的科普性论文。 阅读全文
posted @ 2025-05-14 23:34 格得 阅读(13) 评论(0) 推荐(0)
摘要: 换课题了,换主动三维重建,今晚刚把两个Information gain调通,不打算写代码和看论文了,故总结之。 阅读全文
posted @ 2025-05-14 23:32 格得 阅读(39) 评论(0) 推荐(0)
摘要: 自己虽然用过很多次八叉树地图,但是对于其概率的计算方式一直有些含糊,因此决定重新读一遍论文,来了解其原理。 阅读全文
posted @ 2025-05-14 23:30 格得 阅读(89) 评论(0) 推荐(0)
摘要: SegMatch中提到的几何一致性究竟是什么呢? 阅读全文
posted @ 2025-05-14 23:28 格得 阅读(110) 评论(0) 推荐(0)
摘要: 实验室新进了两个Livox Horizon激光雷达,特此记录特性。 阅读全文
posted @ 2025-05-14 23:24 格得 阅读(121) 评论(0) 推荐(0)
摘要: 在上一篇文章中,对于点云聚类的分类是利用传统机器学习算法——随机森林去做的。而喂给随机森林的不是 点云聚类自身,而是其人工提取的特征向量(或者特征直方图)。这样的做法,分类的效果受限于人工特征 自身的鲁棒性。因此本文提出了数据驱动的CNN分类器来提取特征描述子。 阅读全文
posted @ 2025-05-14 23:21 格得 阅读(103) 评论(0) 推荐(0)
摘要: 户外大尺度环境下做SLAM一般是用激光雷达传感器与相机。如果直接保存点云地图,则由于户外机器人运动的范围比较大,地图的占用内存会过大。因此ETHZ-ASL实验室提出了一种基于segment的地图,能够将点云地图很好的抽象,适合于多机器人户外大范围环境的探索与建图。 阅读全文
posted @ 2025-05-14 23:20 格得 阅读(105) 评论(0) 推荐(0)
摘要: 在现有的视觉SLAM框架中,大部分是用针孔相机的图像来进行特征提取与匹配的。在一些特殊场景下有可能会需要用到鱼眼相机,因此一种操作是将鱼眼相机进行标定,转化成针孔相机的图像,然后再用SLAM框架去跑。这就涉及到了鱼眼相机的标定与像素的重映射。 阅读全文
posted @ 2025-05-14 23:19 格得 阅读(49) 评论(0) 推荐(0)
摘要: 上《线性系统理论》这门课,提到了矩阵的二范数,即等式: $$ \|\mathbf{A}\|_{2}=\sqrt{\lambda_{\max }} $$ 然后中文搜了一堆,没有系统地说明怎么得到的。最后在Wikipedia[^1]中找到了详细推导的来源,也就是这本书[^2]中找到了详细的推导。故记录如下。 阅读全文
posted @ 2025-05-14 23:16 格得 阅读(111) 评论(0) 推荐(0)
摘要: 针对阿克曼底盘的导航,TEB_local_planner没有直接给出具体的导航策略,而是利用非线性优化问题完成了对该问题的建模。 阅读全文
posted @ 2025-05-14 23:15 格得 阅读(32) 评论(0) 推荐(0)
摘要: 其实就是手眼标定。而且这个可以推广开去,做任何可以求出Odometry的传感器之间的标定。 阅读全文
posted @ 2025-05-14 23:11 格得 阅读(55) 评论(0) 推荐(0)
摘要: 上次提到了激光雷达与相机的标定,由于我毕设用的是速腾的激光雷达,发现标定时直接报错,故在此记录下问题与解决措施,借此详细分析下速腾激光雷达与velodyne激光雷达的异同。 阅读全文
posted @ 2025-05-14 23:08 格得 阅读(89) 评论(0) 推荐(0)
摘要: 在图像上做Object detection 准确率目前可以达到90%以上,而在点云上做端到端的Object detection准确率却很低--车辆大概70%,行人大概40%,并且这样的网络换个不同线数的雷达就不行了。(点云有其特殊性, 近处和远处稠密程度不一样,不同线数的激光雷达稠密程度也不一样)。 但是图像做物体识别却没有办法得到深度信息,于是很自然地,便有了将激光雷达点云上的点投影到相机图像上,借而得到深度的想法。而这样做的第一步就是激光雷达和相机的标定,借而得到相机与激光雷达的坐标系间的转换。 阅读全文
posted @ 2025-05-14 23:06 格得 阅读(35) 评论(0) 推荐(0)
摘要: *PointNet* 是Point cloud的Object detection问题的近乎奠基的论文。作者来自于Stanford,PointNet发表在CVPR 2017。这篇文章是VoxelNet(CVPR2018)的指导思想,VoxelNet将PointNet的功能由分类拓展到定位+分类。 阅读全文
posted @ 2025-05-14 23:05 格得 阅读(48) 评论(0) 推荐(0)
摘要: CS231n 看了好几次, 特此整理。大部分参照github仓库 [CS231n-2017-Summary](https://github.com/mbadry1/CS231n-2017-Summary) 阅读全文
posted @ 2025-05-14 23:02 格得 阅读(38) 评论(0) 推荐(0)
摘要: 做cv project,题目是绿幕抠图,搜索到了baysian matting。于是便整理了一些有关贝叶斯公式、最大似然估计的知识,并简单介绍了Baysian Matting的思想。 阅读全文
posted @ 2025-05-14 22:27 格得 阅读(58) 评论(0) 推荐(0)
摘要: 在做课题时遇到了一个问题:在视觉里程计中,当平移量t较小的时候的,根据对极约束算出来的旋转矩阵R为何不可信? 阅读全文
posted @ 2025-05-14 22:13 格得 阅读(36) 评论(0) 推荐(1)
摘要: 前言 这篇文章是针对像我一样非科班的编程爱好者,写着C style的C++代码但是想了解一些代码规范。这里摘抄了一些我认为平时用的到的、不涉及C++高级特性的Google代码风格规定,以供想快速了解的同学参考。 当然你也可以通过点击Google C++ 风格指南来了解到完整的风格指南。 Google 阅读全文
posted @ 2025-05-14 22:07 格得 阅读(41) 评论(0) 推荐(0)