摘要: Android JNI编程使用 参考文档: https://docs.oracle.com/javase/8/docs/technotes/guides/jni/spec/functions.html https://blog.csdn.net/qq_37858386/article/details 阅读全文
posted @ 2022-05-07 19:31 overfitover 阅读(155) 评论(0) 推荐(0) 编辑
摘要: ``` include include include include using namespace std; // 冒泡排序 vector bubbleSort(vector arr) { int len = arr.size(); int temp; for(int i=0; iarr[j+1 阅读全文
posted @ 2019-07-29 21:19 overfitover 阅读(135) 评论(0) 推荐(0) 编辑
摘要: TensorFlow 模型浮点数计算量和参数量统计 2018 08 28 本博文整理了如何对一个 TensorFlow 模型的浮点数计算量(FLOPs)和参数量进行统计。 stats_graph.py 利用高斯分布对变量进行初始化会耗费一定的 FLOP C[25,9]=A[25,16]B[16,9] 阅读全文
posted @ 2019-06-17 20:36 overfitover 阅读(9695) 评论(0) 推荐(0) 编辑
摘要: 动态规划问题 三要素: 最优子结构:子问题的最优解能够决定这个问题的最优解 边界:问题最小子集的解(初始范围) 状态转移函数:递推式 1爬楼梯 python class Solution(object): def climbStairs(self, n): if n nums[i]+d[i 1]: 阅读全文
posted @ 2019-06-12 11:02 overfitover 阅读(789) 评论(0) 推荐(0) 编辑
摘要: 稀疏3d卷积网络 输入 稀疏卷积的输入包括两部分,一个是坐标,另一个是特征。 self.scn_input = scn.InputLayer(3, sparse_shape.tolist()) [h,w,l] coors = coors.int()[:, [1, 2, 3, 0]] [h, w, l 阅读全文
posted @ 2019-05-30 11:30 overfitover 阅读(2411) 评论(0) 推荐(0) 编辑
摘要: 稀疏2d卷积 输入 1.sparse_shape = torch.LongTensor([87, 87]) 2.input = scn.InputBatch(2, spase_shape) dimension sparse shape 3.输入稀疏张量 另外一种方法: model搭建 将稀疏转成稠密 阅读全文
posted @ 2019-05-30 11:29 overfitover 阅读(1545) 评论(0) 推荐(0) 编辑
摘要: 网络保存与加载 1.保存 2.加载网络 3.批训练 DataLoader是torch给你用来包装你的数据的工具。所以要将自己的(numpy array或其他)数据形式转换成Tensor, 然后再放进这个包装器中。使用DataLoader的好处就是帮你有效地迭代数据。 当数据最后不足batch时,就会 阅读全文
posted @ 2019-05-29 20:53 overfitover 阅读(316) 评论(0) 推荐(0) 编辑
摘要: 拟合(回归) 1.建立数据集 拟合一个一元二次函数:y=a x^2+b 2.建立神经网络 建立一个神经网络我们可以直接运用torch中的体系。先定义所有层属性(__ init __()),然后再一层层搭建(forward(x))层与层的关系链接。 3.训练网络 4.可视化 5.快速搭建网络 我们发现 阅读全文
posted @ 2019-05-29 20:52 overfitover 阅读(355) 评论(0) 推荐(0) 编辑
摘要: pytorch使用说明 1.torch和numpy的转换 2.torch中的数学运算 3. 什么是Variable 在Torch中的Variable就是一个存放会变化的值的地理位置。里面的值会不停的变化。其中的值就是torch的Tensor.如果用Variable进行计算,那返回的也是一个同类型的V 阅读全文
posted @ 2019-05-29 20:51 overfitover 阅读(758) 评论(0) 推荐(0) 编辑
摘要: pytorch中文文档学习0 1.自动求导 每个变量都有两个标志:requires_grad和volatile. requires_grad: 只有所有输入都不需要梯度时,输出才不需要;如果有一个输入有梯度,它的输出也有梯度。 volatile 纯粹的inference模式下推荐使用volatile 阅读全文
posted @ 2019-05-29 20:47 overfitover 阅读(803) 评论(0) 推荐(0) 编辑