摘要: 创建结构体指针: var list *ListNode = &ListNode(0,head) 上面的写法等同于 list := &ListNode(0,head) 要想创建一个链表,首先要创建一个表头 num := new(ListNode) 然后将其进行数据赋值以及链接到下一个 middle : 阅读全文
posted @ 2024-02-23 20:48 机器智能小白凡 阅读(65) 评论(0) 推荐(0)
摘要: 存储结构: 1、切片 切片是Go中重要的数据类型,每个切片对象内部都维护着:数组指针(切片的地址)、切片长度、切片容量三个数据 长度是目前存储的数量,容量是最大存储数量 在向切片中追加的数据个数大于容量时,内部会自动扩容且每次扩容都当前容量的两倍(当容量超过1024时每次扩容则只增加当前容量的1/4 阅读全文
posted @ 2024-01-03 20:11 机器智能小白凡 阅读(31) 评论(0) 推荐(0)
摘要: 进入管理员账号 sudo docekr run -it --shm-size 8G -p 10100-10200:10100-10200 -p 9220:22 --name=yanyu -v -v /home/shenxy/pytorch:/root/workspace --gpus all our 阅读全文
posted @ 2023-07-10 15:32 机器智能小白凡 阅读(72) 评论(0) 推荐(0)
摘要: 后台运行: nohup python3 train.py & 首先拉一个镜像: sudo docker pull ubuntu :拉一个乌班图的镜像 如何使用这个镜像: sudo docker run -i -t ubuntu /bin/bash:这样就进入了乌班图的一个终端 输入ls可以查看目录: 阅读全文
posted @ 2023-07-03 16:07 机器智能小白凡 阅读(39) 评论(0) 推荐(0)
摘要: nnFormer不仅利用了交错卷积和自注意操作的结合,还引入了局部和全局基于体积的自注意机制来学习体积表示。此外,nnFormer还提出在类似U-Net的架构中,使用跳转注意(skip-attention)来取代跳转连接(skip-connection)中传统的连接/求和操作. 有许多方法试图将变压 阅读全文
posted @ 2023-06-09 13:34 机器智能小白凡 阅读(786) 评论(0) 推荐(0)
摘要: 1 阅读全文
posted @ 2023-06-08 14:28 机器智能小白凡 阅读(14) 评论(0) 推荐(0)
摘要: 目前的SSL方法一般采用判别方法和重构方法(discriminative methods and reconstruction methods),典型的判别方法包括旋转[3]、魔方[20]和对比学习[14](rotating [3], RubikCube [20] and contrastive l 阅读全文
posted @ 2023-05-15 18:05 机器智能小白凡 阅读(41) 评论(0) 推荐(0)
摘要: 简单来说,就是分为两个流,用CNN来获取局部信息,用tranformer获取全局上下文信息,Transformer模块生成一个图像级上下文表示(ICR)来构建图像级的空间依赖图,并生成区域重要性系数(RIC)来模拟每个区域的重要性。 模型结构如下: 在第一个流当中,我们应用CNN来获取图像(但好像是 阅读全文
posted @ 2023-05-10 13:23 机器智能小白凡 阅读(167) 评论(0) 推荐(0)
摘要: 在VGG中,卷积网络达到了19层,在GoogLeNet中,网络史无前例的达到了22层。那么,网络的精度会随着网络的层数增多而增多吗?在深度学习中,网络层数增多一般会伴着下面几个问题 计算资源的消耗 模型容易过拟合 梯度消失/梯度爆炸问题的产生 问题1可以通过GPU集群来解决,对于一个企业资源并不是很 阅读全文
posted @ 2023-04-07 17:43 机器智能小白凡 阅读(113) 评论(0) 推荐(0)
摘要: 2023年3月发表在arxiv 现阶段,人们对于transformer的兴趣激增,然而,由于缺乏大规模的注释医疗数据集,使得实现与自然图像相同的性能具有挑战性,相比之下,卷积网络具有更高的归纳偏差,因此,很容易被训练到高性能。现阶段,ConvNext试图通过镜像transformer来使得ConvN 阅读全文
posted @ 2023-03-29 18:38 机器智能小白凡 阅读(716) 评论(0) 推荐(0)