摘要:最近想用Linux跑深度学习,试了好几个发行版,最终选择了Deepin v15.11,但由于配置比较新,它不能兼容很多驱动,还得自己装,以下是我失败N次后得到的经验: 1. 电脑配置 配置如下: 型号:DELL G7 7590 CPU:Intel Core i7-9750H GPU:Nvidia G 阅读全文
posted @ 2020-06-24 11:01 Hugh_Cai 阅读(13) 评论(0) 推荐(0) 编辑
摘要:1. CUDA软件 Windows 打开NVIDIA CUDA网站,选择需要下载的版本,依次选择Windows平台,x86_64架构,10系统,exe(local)本地安装包,再选择Download即可下载CUDA安装软件。 下载完成后,打开软件,选择自定义,按下图进行设置 点击下一步,直至安装结束 阅读全文
posted @ 2020-06-01 11:17 Hugh_Cai 阅读(39) 评论(0) 推荐(0) 编辑
摘要:1. Pygame Windows 首先,查看已安装的Python版本;再到Pygame网站下载对应的Pygame版本(cp37对应Python 3.7,win_amd64对应64位的Python,win32对应32位的Python),并修改文件名(如:pygame-1.9.6-cp37-cp37- 阅读全文
posted @ 2020-05-25 10:58 Hugh_Cai 阅读(52) 评论(0) 推荐(0) 编辑
摘要:(for pursue, do accumulation) 个人笔记,纯属佛系分享,如有错误,万望赐教。 蒙特卡洛(Monte Carlo, MC)方法是一种不基于模型的方法。它不需要具有完备的环境知识,只要求具备经验,即来自于真实的或模拟的环境交互过程中的样本序列${\mathcal,\mathc 阅读全文
posted @ 2020-04-30 20:58 Hugh_Cai 阅读(30) 评论(0) 推荐(0) 编辑
摘要:(for pursue, do accumulation) 个人笔记,纯属佛系分享,如有错误,万望赐教。 动态规划(Dynamic Programming, DP)是基于模型的方法,即在给定一个利用MDP描述的完备的环境模型下可以计算出最优策略的优化算法。 DP的两种性质:1.最优子结构:问题的最优 阅读全文
posted @ 2020-04-24 23:05 Hugh_Cai 阅读(25) 评论(0) 推荐(0) 编辑
摘要:(for pursue, do accumulation) 个人笔记,纯属佛系分享,如有错误,万望赐教。 马尔可夫决策过程(Markov Decision Processes, MDPs)是一种对序列决策问题的解决工具,在这种问题中,决策者以序列方式与环境交互。 1. “智能体-环境”交互的过程 首 阅读全文
posted @ 2020-04-12 23:13 Hugh_Cai 阅读(91) 评论(0) 推荐(0) 编辑
摘要:(for pursue, do accumulation) 个人笔记,纯属佛系分享,如有错误,万望不吝赐教。 强化学习(Reinforcement Learning)是模仿人类的学习方式(比如,学习一种新的技能,从入门到掌握总是不断地去寻错,改正,直至完全掌握),强化学习的主要思想就是智能体在与环境 阅读全文
posted @ 2020-04-10 13:27 Hugh_Cai 阅读(139) 评论(0) 推荐(0) 编辑