摘要: 今天配置pytorch环境,踩的坑记录一下: conda install 和 pip install 区别: 1、安装的版本可能不同,一般pip版本较新,conda版本老一些;【如果需要新版本的包,那么conda安装的包就几几了】; 2、安装后在不同位置,并且pip安装的包conda uninsta 阅读全文
posted @ 2020-11-10 17:28 ldfm 阅读(2000) 评论(0) 推荐(0) 编辑
摘要: 这个是第二次遇到这个问题了,又搞了两个多小时才找到原因,哭......,自己记录一下,下次长个记性,也给遇到同样问题的小伙伴提供一个思路。 本人电脑联想笔记本,找准问题一分钟就解决了【/摊手】,方法: 更新BIOS驱动 就是这么简单。。。。。,看网上各种方法也试了,没用。我想这可能和软件更新有关,例 阅读全文
posted @ 2020-10-24 15:19 ldfm 阅读(6610) 评论(0) 推荐(0) 编辑
摘要: 概率论一直学不明白,或者似懂非懂,感觉没有抓住要害..... 概率论回忆起来是研究各种分布函数【离散】、概率密度函数的一门学科,他们有一个共同点,累加/积分等于1,这符合关于概率的直观理解; 统计学主要研究实际问题,基于采样数据去做分析,这就需要概率论的相关知识。这就联系到了一类知识,基于数据如何估 阅读全文
posted @ 2020-10-21 19:51 ldfm 阅读(224) 评论(0) 推荐(0) 编辑
摘要: 注意 输入【step】不代表传递函数输入【力】,表示期望控制曲线;PID输出为传递函数输入【力】,即表示系统的输入力【被控量】。 这样就实现了系统输出跟踪期望输入【step】。 阅读全文
posted @ 2020-10-10 21:27 ldfm 阅读(81) 评论(0) 推荐(0) 编辑
摘要: swarm robotics, every robot mast can feel the environment,and do some optimize it; 阅读全文
posted @ 2020-08-24 15:37 ldfm 阅读(146) 评论(0) 推荐(0) 编辑
摘要: 思路:线搜索最优化算法,一般是先确定迭代方向(下降方向),然后确定迭代步长; 信赖域方法直接求得迭代位移; 算法分析 第$k$次迭代,确定迭代位移的问题为(信赖域子问题): \(min q_k(d)=g_k^Td+\frac{1}{2}d^TB_kd_k\) \(s.t.\quad ||d||\le 阅读全文
posted @ 2020-08-22 14:36 ldfm 阅读(1326) 评论(0) 推荐(0) 编辑
摘要: 特点 相较于: 最优化算法3【拟牛顿法1】 BFGS算法使用秩二矩阵校正hesse矩阵的近似矩阵$B$,即: \(B_{k+1}=B_k+\alpha\mu_k\mu_k^T+\beta\nu_k\nu_k^T\) 算法分析 将函数在$x_{k+1}$处二阶展开: \(f(x)=f(x_{k+1}) 阅读全文
posted @ 2020-08-21 10:03 ldfm 阅读(1083) 评论(0) 推荐(0) 编辑
摘要: 牛顿法存在的问题 计算量大,每次都需要计算HESSE矩阵,对于自变量维数较高的优化函数,计算量是相当大的; HESSE矩阵可能存在不正定的问题,此时求得的迭代方向可能不是下降方向; 为了解决上述问题,需要求HESSE矩阵近似矩阵$B$ 算法分析 将函数在$x_{k+1}$处二阶展开: \(f(x)= 阅读全文
posted @ 2020-08-20 18:57 ldfm 阅读(256) 评论(0) 推荐(0) 编辑
摘要: 特点:具有超线性收敛速度,只需要计算梯度,避免计算二阶导数 算法步骤 \(step0:\) 给定初始值$x_0$,容许误差$\epsilon$ \(step1:\) 计算梯度$g_k=\nabla f(x_k)$,if \(norm(g_k)<=\epsilon\), \(break;\) 输出当前 阅读全文
posted @ 2020-08-09 18:56 ldfm 阅读(1404) 评论(0) 推荐(0) 编辑
摘要: 牛顿算法 对于优化函数$f(x)$,\(x=(x_1;x_2;...;x_n)\),二阶连续可导 在$x_k$处泰勒展开,取前三项,即对于优化函数二阶拟合 \(f(x)=f(x_k)+g_k(x-x_k)+\frac{1}{2}(x-x_k)G_k(x-x_k)\) 其中$g_k=\nabla f( 阅读全文
posted @ 2020-08-08 22:50 ldfm 阅读(3527) 评论(0) 推荐(0) 编辑