1 2 3 4 5 ··· 19 下一页
摘要: Ubuntu挂载新硬盘 本文介绍了一个Ubuntu操作系统下如何挂载新硬盘,并配置重启开机默认挂载的流程和方法。 阅读全文
posted @ 2025-10-16 10:23 DECHIN 阅读(113) 评论(0) 推荐(0)
摘要: 一个纯净的自动微分框架—autograd 本文介绍了一个可以基于CPU和numpy的自动微分计算框架。如果只是需要使用自动微分计算的功能,就可以直接在CPU环境下简便的部署,快捷的完成环境搭建。 阅读全文
posted @ 2025-09-27 09:16 DECHIN 阅读(278) 评论(0) 推荐(0)
摘要: Torch中的tensor size 本文重点介绍了一下如何在PyTorch中去计算一个高维tensor的大小,也就是元素的总数。在其他框架中我们需要使用size函数来获取,而在PyTorch框架中这个接口被调整为numel,本文给出了两个具体代码示例。 阅读全文
posted @ 2025-09-25 12:31 DECHIN 阅读(20) 评论(0) 推荐(0)
摘要: Blelloch并行扫描算法 本文介绍了一个可以用于并行化串行累计操作的Blelloch算法,可以通过用空间换时间+并行计算的方法,来降低特定计算的时间复杂度。这里我们给出了算法原理的大致介绍,以及基于Numpy的算法代码实现。 阅读全文
posted @ 2025-09-18 10:46 DECHIN 阅读(171) 评论(0) 推荐(1)
摘要: 关闭Ollama开机启动项 Ollama在本地普通算力机器上部署DeepSeek等大模型,有一定的生态优势。但是由于软件本身的一些策略问题,Windows平台的Ollama总是会随系统开机自动启动,还没有设置界面可以关闭。这里提供一种方法,可以在Windows平台永久关闭Ollama的开机自动启动功能。 阅读全文
posted @ 2025-08-12 09:16 DECHIN 阅读(1027) 评论(0) 推荐(0)
摘要: VSCode手动版本更新 本文简单的介绍了如何禁用VSCode的版本自动更新,以及禁用更新后如何手动更新,或者切换VSCode的版本。 阅读全文
posted @ 2025-07-28 11:11 DECHIN 阅读(1501) 评论(0) 推荐(0)
摘要: 关于nan的大小判定规则 本文通过几个简单的代码示例,展示了一下NAN在PyTorch框架下形成的原因。通过了解这个原因和规则,有助于解决在深度学习开发和训练过程中出现的NAN的问题。 阅读全文
posted @ 2025-07-21 17:46 DECHIN 阅读(268) 评论(0) 推荐(0)
摘要: PyTorch中的take_along_dim 接前面一篇take_along_axis的文章,本文主要介绍在PyTorch框架下,功能基本一样的函数take_along_dim。二者除了命名和一些关键词参数不一致之外,用法是一样的。需要注意的是,两者都要求输入的数组和索引数组维度数量一致。在特定场景下,需要手动进行扩维。 阅读全文
posted @ 2025-07-17 10:18 DECHIN 阅读(277) 评论(0) 推荐(0)
摘要: PyTorch中的张量逆序问题 本文简单的介绍了一个在Pytorch中对张量进行逆序操作的方法相比于其他的框架,例如numpy和mindspore等的区别。在其他框架中我们可以直接使用slice的方法对一个张量做逆序,但是在Pytorch中,可能需要使用到一个flip函数。 阅读全文
posted @ 2025-07-10 10:16 DECHIN 阅读(70) 评论(0) 推荐(0)
摘要: PyTorch中实现开立方 本文介绍了在PyTorch中直接使用幂次函数计算有可能导致的计算结果异常的问题。由于PyTorch中并未像Numpy和MindSpore一样直接支持cbrt开立方函数,因此这里也提供了一个在PyTorch中计算开立方的函数。 阅读全文
posted @ 2025-06-25 17:56 DECHIN 阅读(56) 评论(0) 推荐(0)
摘要: conda环境部署脚本 本文简单的介绍了一下在空白的Ubuntu Linux中安装conda的方法和脚本,其中包含了CUDA部分的安装。 阅读全文
posted @ 2025-06-23 10:16 DECHIN 阅读(92) 评论(0) 推荐(0)
摘要: tensor_scatter_add算子异同点 本文介绍了MindSpore中的tensor_scatter_add算子的用法,可以对一个多维的tensor在指定的index上面进行加和操作。在PyTorch中虽然也有一个叫scatter_add的算子,但是本质上来说两者是完全不一样的操作。 阅读全文
posted @ 2025-06-20 15:49 DECHIN 阅读(376) 评论(0) 推荐(0)
摘要: gather算子大不同 本文通过2个实际的案例,演示了一下gather算子在MindSpore框架下PyTorch框架下的异同点。两者的输入都是tensor-axis-index,一个是输入顺序上略有区别,另一个是对于输入的张量索引维度的要求。在PyTorch中,如果我们要实现类似于MindSpore中的gather功能,需要手动对输入索引的维度操作一下。 阅读全文
posted @ 2025-06-18 15:06 DECHIN 阅读(88) 评论(0) 推荐(0)
摘要: MindSpore中的ReduceMax和max操作的区别 本文介绍了在pytorch和mindspore中两种计算张量最大值的算子,如果直接使用max算子,两者的输出都是最大值元素和最大值索引。但是mindspore中额外的支持了ReduceMax算子,可以允许我们只输出最大值而不输出最大值索引。 阅读全文
posted @ 2025-06-16 14:52 DECHIN 阅读(39) 评论(0) 推荐(0)
摘要: PyTorch中的求余 本文通过几个示例,介绍了在Python、Numpy和PyTorch三个不同的框架下,对于求余数函数的定义。比较特殊的是pytorch中的fmod函数,并不符合数学上的求余数方法,而是需要使用remainder函数。 阅读全文
posted @ 2025-06-11 15:50 DECHIN 阅读(46) 评论(0) 推荐(0)
1 2 3 4 5 ··· 19 下一页