上一页 1 ··· 54 55 56 57 58 59 60 61 62 ··· 67 下一页
摘要: https://blog.csdn.net/ccnt_2012/article/details/81326626 阅读全文
posted @ 2022-03-29 14:48 笨笨和呆呆 阅读(26) 评论(0) 推荐(0)
摘要: from functools import reduce df=reduce(lambda left,right:pd.merge(left,right,on='date'),dfs) ##merge多个dataframe def func(x1,x2): return x1*x2,x1+x2 df 阅读全文
posted @ 2022-03-25 12:47 笨笨和呆呆 阅读(104) 评论(0) 推荐(0)
摘要: 在向量分析中, 雅可比矩阵是一阶偏导数以一定方式排列成的矩阵。其行列式称为雅可比行列式。还有, 在代数几何中, 代数曲线的雅可比量表示雅可比簇:伴随该曲线的一个代数群, 曲线可以嵌入其中. 它们全部都以数学家卡尔·雅可比(Carl Jacob, 1804年10月4日-1851年2月18日)命名。 一 阅读全文
posted @ 2022-03-22 16:08 笨笨和呆呆 阅读(4329) 评论(0) 推荐(0)
摘要: 转自:http://www.cnblogs.com/emanlee/archive/2011/08/03/2126260.html 二阶偏导数矩阵也就所谓的赫氏矩阵(Hessian matrix). 一元函数就是二阶导,多元函数就是二阶偏导组成的矩阵. 求向量函数最小值时用的,矩阵正定是最小值存在的 阅读全文
posted @ 2022-03-22 15:57 笨笨和呆呆 阅读(477) 评论(0) 推荐(0)
摘要: 最近遇到一个问题,发下gpu训练的模型在cpu下不能跑,很难受。结果发现原来是自己使用了DataParallel的问题,我保存的是整个模型。 model=DataParalle(model)torch.save(‘xx.pkl’,model) 然后把模型copy到自己电脑上用cpu跑 model=t 阅读全文
posted @ 2022-03-17 09:34 笨笨和呆呆 阅读(1235) 评论(0) 推荐(0)
摘要: Ctrl+Shift+O,打开一个窗口,显示的是函数列表 阅读全文
posted @ 2022-03-15 16:31 笨笨和呆呆 阅读(201) 评论(0) 推荐(0)
摘要: 刚接触NLP这块,有两个关于transformer的问题: 1)为什么要有decoder?如果encoder后面直接接全连接不可以吗? 2)为什么decoder要有mask?为什么要按时间步一个字一个字翻译?这样的话,是不是英语从句翻译成汉语就不可行,比如 He is a person who we 阅读全文
posted @ 2022-03-15 11:24 笨笨和呆呆 阅读(1204) 评论(0) 推荐(0)
摘要: https://zhuanlan.zhihu.com/p/50915723 阅读全文
posted @ 2022-03-15 10:52 笨笨和呆呆 阅读(64) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2022-03-14 17:59 笨笨和呆呆 阅读(34) 评论(0) 推荐(0)
摘要: #step1 先把不要的列删掉 del df['gid'],df['WS_60'],df['WD_60'] #step2 使用前后向填充覆盖NAN df = df.fillna(method='ffill') df = df.fillna(method='bfill') 阅读全文
posted @ 2022-03-11 15:10 笨笨和呆呆 阅读(147) 评论(0) 推荐(0)
上一页 1 ··· 54 55 56 57 58 59 60 61 62 ··· 67 下一页