2025年4月14日

摘要: 1.在笔记本上启动Haper-V虚拟机: 鼠标点积右键开始菜单 找到应用与功能 下拉,找到程序与功能 在这里里面点进去:启动或关闭Windows功能 把关于虚拟机的都点上 Hyper-V Windows 虚拟机监控程序平台 适用于Linux的 windows 子系统 虚拟机平台 若点进去启动或关闭w 阅读全文
posted @ 2025-04-14 20:39 kangkang666888 阅读(149) 评论(0) 推荐(0)

2025年4月12日

摘要: 就可以了(借鉴了别人的方法,用过记录的。) 阅读全文
posted @ 2025-04-12 16:30 kangkang666888 阅读(14) 评论(0) 推荐(0)

2025年4月7日

摘要: 创建新的虚拟环境 conda create -n 名字 python=3.10(版本号) 进入虚拟环境 conda activate 名字 退出虚拟环境 deactivate 查看创建的虚拟环境列表 conda env list 删除虚拟环境 conda remove -n 名字 --all 查看c 阅读全文
posted @ 2025-04-07 12:04 kangkang666888 阅读(39) 评论(0) 推荐(0)
摘要: 1 DexYCB数据集 2 Sim-Grasp数据集 3 YCB-Video数据集 4 Open X 数据集 待编辑 阅读全文
posted @ 2025-04-07 10:42 kangkang666888 阅读(24) 评论(0) 推荐(0)
摘要: 目 录 1 背景 3 2 VLM模型与YOLO模型的区别 3 3 基于VLM的模型改进 3 3.1 ALOHA平台 4 3.2 VLM模型改进 5 3.3 数据集 6 3.3.1 DexYCB数据集 7 3.3.2 Sim-Grasp数据集 7 3.3.3 YCB-Video数据集 7 4 未来科学 阅读全文
posted @ 2025-04-07 10:39 kangkang666888 阅读(272) 评论(0) 推荐(0)

2025年1月3日

摘要: 摘要 残差网络:一种深度学习中的神经网络结构,通过引入跳跃连接来解决深度神经网络中的梯度消失和梯度爆炸问题。ResNet(residual networks)的简单介绍 输入层学习参差函数,而不是学习未残差的函数。以及在ImageNet和COCO数据集上取得好的成绩。 1 介绍 揭示了网络的深度对于 阅读全文
posted @ 2025-01-03 20:31 kangkang666888 阅读(72) 评论(0) 推荐(0)

2024年12月16日

摘要: 摘要: 在ImageNet竞赛中,主要使用8层(5个卷积层、三个全连接层),其中在第1,2,5层使用最大池化,三个全连接层使用softmax非线性激活。实现图像分类,正是AlexNet网络模型的结构,在传统的神经网络模型中,使用非饱和和高效的CPU来卷积操作,同时也是用“dropout”(正则化)来 阅读全文
posted @ 2024-12-16 21:19 kangkang666888 阅读(449) 评论(0) 推荐(0)
摘要: 摘要 transformer是一种新的网络架构,它放弃了传统的循环和卷积,提供了一种编码器和解码器网络结构来完成任务,主要用于翻译任务中。它的优点为:更少的训练时间,较好的泛用性。 1 介绍 循环神经网络模型包括长短期记忆(LSTM)和门控制神经网络模型,被确立为序列模型和转导问题,推动了循环语言模 阅读全文
posted @ 2024-12-16 21:19 kangkang666888 阅读(40) 评论(0) 推荐(0)
摘要: 摘要: 模仿学习在学习端到端的机器策略中展示了好的结果,本论文的工作解决的问题是,能在多大程度上推动模仿学习来挑战灵巧的操作任务。在ALOHA2 平台上,将一个简单的大规模数据收集的配方与可表达的模型(扩散的策略)相结合,可以有效地学习具有挑战性的手动操作任务,包括可变形的物体和复杂的接触丰富的动态 阅读全文
posted @ 2024-12-16 20:59 kangkang666888 阅读(112) 评论(0) 推荐(0)

2024年12月13日

摘要: 给一个整数数组nums,一个整数k,一个整数multiplier。 需要对nums执行k次操作,每次操作中: 找到nums中的最小值x,如果存在多个最小值,选择最前面的一个。 将x替换为x * multiplier 返回最终得到的nums数组。 #python class Solution: def 阅读全文
posted @ 2024-12-13 21:32 kangkang666888 阅读(22) 评论(0) 推荐(0)