Loading

摘要: 参考: 求一个games101图形学课程的环境配置教程,最好能够简单易懂,CSDN教程根本看不懂什么意思? - 不泊的回答 - 知乎 https://www.zhihu.com/question/459126051/answer/3420947842 macos现在怎么装homebrew? - My 阅读全文
posted @ 2024-04-12 20:34 脂环 阅读(4) 评论(0) 推荐(0) 编辑
摘要: 尝试了网上所有方法,包括但不限于放行轻量应用服务器防火墙/系统防火墙的对应端口等,均无效,同时frp也无法使用。后来向腾讯云提交工单,得知可能与本地网络环境校园网有关(),更换手机热点后正常。同时为了解决本地服务器访问云服务器的问题,尝试更换云服务器的公网ip,问题暂时解决。 阅读全文
posted @ 2024-02-21 23:30 脂环 阅读(19) 评论(0) 推荐(0) 编辑
摘要: 在使用实验室服务器时出现此问题,具体表现为选择用户并输入密码后,等待若干秒后回到登陆界面,无法进入桌面,同时尝试网上的方法如修改.Xauthority的权限均无效。 解决方案:重新安装nvidia驱动。 附一个比较全面的方法汇总:https://blog.csdn.net/jsk_learner/a 阅读全文
posted @ 2024-01-15 17:20 脂环 阅读(72) 评论(0) 推荐(0) 编辑
摘要: Intro 在训练集上最小化损失很可能导致泛化性低,因为当今模型的过参数化会导致training loss的landscape异常复杂且非凸,包含很多local/global minima,因此优化器的选择至关重要。loss landscape的几何性质(特别是minima的flatness)与泛化 阅读全文
posted @ 2024-01-13 17:49 脂环 阅读(35) 评论(0) 推荐(0) 编辑
摘要: Motivation & Intro 基于DETR的目标检测范式(语义分割的Maskformer也与之相似)通常会用到一系列固定的query,这些query是图像中目标对象位置和语义的全局先验。如果能够根据图像的语义信息调整query,就可以捕捉特定场景中物体位置和类别的分布。例如,当高级语义显示图 阅读全文
posted @ 2024-01-11 16:14 脂环 阅读(14) 评论(0) 推荐(0) 编辑
摘要: 前置知识:【EM算法深度解析 - CSDN App】http://t.csdnimg.cn/r6TXM Motivation 目前的语义分割通常采用判别式分类器,然而这存在三个问题:这种方式仅仅学习了决策边界,而没有对数据分布进行建模;每个类仅学习一个向量,没有考虑到类内差异;OOD数据效果不好。生 阅读全文
posted @ 2023-12-07 20:58 脂环 阅读(44) 评论(0) 推荐(0) 编辑
摘要: 前置知识:VAE(可以参考https://zhuanlan.zhihu.com/p/348498294) Motivation 之前的方法通常使用判别式分类器,对条件分布\(p(y|\textbf{x})\)进行建模(classifier+softmax+ce)。其问题在于分类器会偏向最新学的类别, 阅读全文
posted @ 2023-12-07 11:13 脂环 阅读(9) 评论(0) 推荐(0) 编辑
摘要: 原因是之前给代码debug的时候加上了with torch.autograd.detect_anomaly,去掉即可。参考:https://github.com/pytorch/pytorch/issues/38714 阅读全文
posted @ 2023-10-13 18:38 脂环 阅读(7) 评论(0) 推荐(0) 编辑
摘要: 原因是把创建loss的语句loss_aux = torch.tensor(0.)放在循环体外了,可能的解释是第一次backward后把计算图删除,第二次backward就会找不到父节点,也就无法反向传播。参考:https://stackoverflow.com/questions/55268726/ 阅读全文
posted @ 2023-10-13 18:23 脂环 阅读(144) 评论(0) 推荐(0) 编辑
摘要: 之前使用的比较老的torch 1.8.1,换到torch 2.0后报错 "rank 1 and rank 0 both on CUDA device 35000" 将main函数开头部分的初始化 ```python distributed.init_process_group(backend='nc 阅读全文
posted @ 2023-09-05 22:29 脂环 阅读(2028) 评论(0) 推荐(0) 编辑