合集-飞飞机
摘要:[原][JSBSIM]aircraft飞机xml脚本 - 南水之源 - 博客园 (cnblogs.com) 1 安装python版本 jsbsim 发布 ·JSBSim-Team/jsbsim ·GitHub Jsbsim :: Anaconda.org conda install -c conda
阅读全文
摘要:gym1——自定义Gym环境并注册 目录gym1——自定义Gym环境并注册感谢开始Step 0 新建文件夹Step1:新建环境文件 xxEnv.pyStep2: 在env下的_ _ init _ _ .py下注册**Step3 ** 添加新建环境文件夹的引用Step4:在算法中进行调用 感谢 强化学
阅读全文
摘要:笔记 1 珠玉在前 论文1 Richter D J, Calix R A. QPlane: An Open-Source Reinforcement Learning Toolkit for Autonomous Fixed Wing Aircraft Simulation[C]//Proceedi
阅读全文
摘要:AirSim 环境搭建 目录AirSim 环境搭建感谢一 AirSim简介二 vs2019三 虚幻引擎四 下载编译五 环境的使用1 要把Epic Game语言改为英文2 create Project3 创建C++类。4 复制Plugin5 打开sln文件,进行调试6 场景设置7 运行8 视角调节9
阅读全文
摘要:目录1 付宇鹏,邓向阳,何明,等. 基于强化学习的固定翼飞机姿态控制方法研究_付宇鹏[J]. 控制与决策, : 1-6.输入输出模型结构强化学习方法——ppo奖励函数设置实现平台 训练技巧效果2 马一鸣. 基于强化学习的前馈控制器[D]. 华北电力大学(北京), 2021.强化学习自适应补偿控制系统
阅读全文
摘要:将JSBSim放进强化学习中 1 JSBSim模型 1 状态获取 位置 : 横轴,纵轴,竖轴 坐标 \(x,y,z\) fdm["position/lat-gc-deg"] # Latitude fdm["position/long-gc-deg"] # Longitude fdm["positio
阅读全文
摘要:博弈解与强化学习 二 基础算法 2.1 引言 一个随机博弈可以看成是一个多智能体强化学习过程,但其实这两个概念不能完全等价,随机博弈中假定每个状态的奖励矩阵是已知的,不需要学习。而多智能体强化学习则是通过与环境的不断交互来学习每个状态的奖励值函数,再通过这些奖励值函数来学习得到最优纳什策略。通常情况
阅读全文
摘要:博弈论与强化学习——基础1 扩展型博弈 表示形式—— 博弈树 使用树状图来表示行动的次序和执行动作时的信息状态 图中有两个参与者 ,进行了两个阶段的博弈 结点:表示博弈的状态, 根节点:博弈的起点,玩家进行决策。关于博弈怎么开始,博弈的顺序,可以有预定的顺序也可以通过掷色子、投硬币决定等。 非叶子结
阅读全文
摘要:二 空战可视化+强化学习 1 jsbsim + FlighterGear jsbsim 介绍 : JSBSim Open Source Flight Dynamics Model (sourceforge.net) 安装 GitHub - JSBSim-Team/jsbsim: An open so
阅读全文
摘要:gym1——自定义Gym环境并注册 感谢 强化学习实战 第一讲 gym学习及二次开发 - 知乎 (zhihu.com) 开始 Step 0 新建文件夹 Gym的环境都保存在gym/envs目录下,envs目录下包含了各种类型的环境例如:atari、classic_control等,我们可以在这下目录
阅读全文
摘要:博弈论与强化学习实战——CFR算法——剪刀石头布 感谢: 浅谈德州扑克AI核心算法:CFR - 掘金 (juejin.cn) 虚拟遗憾最小化算法(CFR)基础知识详解 - 知乎 (zhihu.com) 一 游戏介绍 有两个参与者, 每个参与者有三个可选动作 剪刀石头布 ,分别用0,1,2表示 奖励:
阅读全文
摘要:飞机游戏六 空战强化学习环境1—DBML 使用 一 Github 地址 GitHub - mrwangyou/DBRL: A Gym Dogfighting Simulation Benchmark for Reinforcement Learning Research 二 项目简介 使用gym框架
阅读全文
摘要:飞机游戏五 强化学习算法库 一 stable-baseline3 介绍 利用stable-baselines3优雅便捷地玩转深度强化学习算法 - 知乎 (zhihu.com) 项目地址 GitHub - DLR-RM/stable-baselines3: PyTorch version of Sta
阅读全文
摘要:分层强化学习 HRL方法通过引入抽象( Abstraction)机制来实现状态空间的降维,将学习任务分解到抽象内部和抽象之间不同层次上来分别实现,使得每层上的任务仅需在低维空间中进行。因此,建立在合理抽象机制上的HRL能极大减少存储空间和计算量,加快学习速度,有利于解决“维度灾难"问题。典型的HRL
阅读全文
摘要:AirSim 环境搭建 感谢 airsim详细教程(1):win10配置airsim仿真环境(2021.8.12更新) - 知乎 (zhihu.com) 一 AirSim简介 Home - AirSim (microsoft.github.io) airsim详细教程(1):win10配置airsi
阅读全文
摘要:1 付宇鹏,邓向阳,何明,等. 基于强化学习的固定翼飞机姿态控制方法研究_付宇鹏[J]. 控制与决策, : 1-6. 输入输出 控制器输入为飞机纵向和横向状态变量以及姿态误差,输出升降舵和副翼偏转角度指令,实现不同初始条件下飞机姿态角快速响应 模型结构 分立的神经网络模型,提高了算法收敛效率 本设计
阅读全文
摘要:飞机游戏四 飞机作战场景 感谢 浅谈作战飞机机动性 - 知乎 (zhihu.com) 视距空战 浅谈作战飞机机动性 - 知乎 (zhihu.com) 超视距空战 超视距空战初探 - 知乎 (zhihu.com)
阅读全文
摘要:飞机游戏三仿真软件 3.1JSBSim介绍 1 介绍 JSBSim Open Source Flight Dynamics Model (sourceforge.net) 发布 ·JSBSim-Team/jsbsim ·GitHub 2 xml配置文件解析 【jsbsim学习】飞行器模型配置文件解读
阅读全文
摘要:飞机游戏 一 飞机飞行基础知识 1.1概念介绍 感谢 参考 飞行原理术语解析 - 知乎 (zhihu.com) 例说姿态解算与导航14(地球,重力与坐标系) - 知乎 (zhihu.com) 无人导航常见坐标系_一抹烟霞的博客-CSDN博客 常用导航坐标系 及 转换关系 (理论+程序)_他人是一面镜
阅读全文
摘要:小雅环境和自定义gym融合 自定义Gym环境并注册 Gym的环境都保存在gym/envs目录下,envs目录下包含了各种类型的环境例如:atari、classic_control等,我们研究飞行器等类型问题所建立的自定义环境一般可以放在classic_control中。 Step1:建立环境文件 在
阅读全文
摘要:分层强化学习 目录分层强化学习Option在MDP模型中加入OptionHAM (Hierarchical Abstract Machines)MAXQ自动分层研究仿真实验1 多出租车问题2 垃圾收集3 多机器人足球4 多机器人搜救 HRL方法通过引入抽象( Abstraction)机制来实现状态空
阅读全文
摘要:问题建模 异构多智能体战场决策 所有智能体之间在无直接通讯的情况下完全独立决策,分别由不同的程序控制并可以运行在不同的主机上 POSG模型给了我们一个更好的理解不确定环境下多智能体规划问题的途径,但在这里问题的规模是最大的挑战。最基本的做法是采用分层设计的思想(Stone P, 1998),将整个
阅读全文
摘要:多智能体理论 智能体的基本特性 woofdridge和J七nnLings在总结了前人在agent领域的一些工作后认为Agent的基本特性包括: (l)自治性:Agent运行时不直接由人或者其他东西控制它对它们自己的行为和内部状态有一定的控制权。 (2)社会性:Agent能够通过某种Agent通信
阅读全文
摘要:马尔可夫决策理论 马尔可夫性( 无后效性) 某阶段的状态一旦确定则此后过程的演变不再受此前各状态的影响。也就是说“未来与过去无关”当前的状态是此前历史的一个完整总结,此前的历史只能通过当前的状态去影响过程未来的演变。 把握“当前的状态是此前历史的一个完整总结”这一要点后很多过程可以被转化描述为马尔
阅读全文
摘要:飞机基础知识一 1.3二维平面飞机运动学模型 运动学方程 在二维平面上 将飞机视为一个质点 $$ \begin{aligned} & \frac{d x}{d t}=v \cos \psi \ & \frac{d y}{d t}=v \sin \psi \ & \frac{d v}{d t}= a
阅读全文
摘要:飞机游戏六 空战环境 6.1 DBRML 6.1.5 动作空间设置 动作空间 1 连续动作空间 空间范围 # 飞机的动作空间 self.action_space = Box( low=np.array([ 0, # 推力 -1, # Pitch 俯仰角 -1, # Roll 翻滚角 -1, # Ya
阅读全文
摘要:飞行基础知识一 1.2飞机的三自由度方程 参考 python实现飞行控制仿真(二)——三自由度仿真_python 飞行仿真_风雨潇潇一书生的博客-CSDN博客 运动学和动力学方程 1 地面惯性坐标系下的三维空间运动学方程 [基于深度强化学习的无人机对战战术决策的研究 ](D:\CNKI E-Stud
阅读全文
摘要:中远距空战对战场景 参考 超视距空战战术编队图解大全.pdf - 豆丁网 (docin.com) 作者:何陈雨 https://www.bilibili.com/read/cv7418420/ 超视距空战战术编队图解大全.pdf - 豆丁网 (docin.com) 初始场景 基本知识: 敌对双方距离
阅读全文
摘要:挖坑
阅读全文
摘要:飞机游戏六空战强化学习环境6.1DBML 6.1.3 DBML+强化学习算法使用 项目文件结构 doc 是指导文档,tutorial.ipynb也是指导项目的配置与安装的文件 src目录下是主要的环境和模型所在位置, 其中environment是作者根据以jsbsim和dogfight2作为仿真软件
阅读全文
摘要:飞机游戏三仿真软件 3.3 Dogfight介绍 1 项目地址 GitHub - harfang3d/dogfight-sandbox-hg2: Air to air combat sandbox, created in Python 3 using the HARFANG 3D 2 framewo
阅读全文
摘要:DBML源码阅读与分析 项目文件结构 doc 是指导文档,tutorial.ipynb也是指导项目的配置与安装的文件 src目录下是主要的环境和模型所在位置, 其中environment是作者根据以jsbsim和dogfight2作为仿真软件,编写的符合gym框架下的环境,在使用的时候需要将环境复制
阅读全文

浙公网安备 33010602011771号