摘要: 一、概念区分 首先,区别"开发支出"和"研发费用"是报表项目,"研发支出"是会计科目。 其次,"开发支出"报表项目应根据"研发支出"科目中所属的"资本化支出"明细科目期末余额填列。"研发费用"报表项目应根据"管理费用"中与研发相关的费用加上自行研发的无形资产的摊销金额来填列。 补充说明: 1.自行研 阅读全文
posted @ 2021-08-23 19:16 celine227 阅读(2289) 评论(0) 推荐(0) 编辑
摘要: 一、 为什么要进行对数化处理 1. 缩小数据的绝对数值,方便计算。 例如,每个数据项的值都很大,许多这样的值进行计算可能对超过常用数据类型的取值范围,这时取对数,就把数值缩小了;在实证模型中,缩小值之后相关系数数值会更大一些(原值可能需要四到五位有效数字)。 2. 取对数后,可以将乘法计算转换称加法 阅读全文
posted @ 2021-08-23 16:58 celine227 阅读(11627) 评论(0) 推荐(1) 编辑
摘要: 线性回归——最小二乘 线性回归(linear regression),就是用线性函数 f(x)=w⊤x+bf(x)=w⊤x+b 去拟合一组数据 D={(x1,y1),(x2,y2),...,(xn,yn)}D={(x1,y1),(x2,y2),...,(xn,yn)} 并使得损失 J=1n∑ni=1 阅读全文
posted @ 2021-08-19 17:33 celine227 阅读(981) 评论(0) 推荐(0) 编辑
摘要: 1. ROC曲线的定义 ROC的全称是Receiver Operating Characteristic Curve,中文名字叫“受试者工作特征曲线”,顾名思义,其主要的分析方法就是画这条特征曲线。这里在网上找了一个比较好的图样示例如下, ROC曲线示例 该曲线的横坐标为假阳性率(False Pos 阅读全文
posted @ 2021-08-14 11:06 celine227 阅读(2288) 评论(0) 推荐(0) 编辑
摘要: Fama-French三因子模型理论知识 模型介绍 Fama和French 1992年对美国股票市场决定不同股票回报率差异的因素的研究发现,股票的市场的beta值不能解释不同股票回报率的差异,而上市公司的市值、账面市值比、市盈率可以解释股票回报率的差异。Fama and French认为,上述超额收 阅读全文
posted @ 2021-08-13 11:58 celine227 阅读(1511) 评论(0) 推荐(0) 编辑
摘要: 前言 最近有遇到些同学找我讨论sigmoid训练多标签或者用在目标检测中的问题,我想写一些他们的东西,想到以前的博客里躺着这篇文章(2015年读研时机器学课的作业)感觉虽然不够严谨,但是很多地方还算直观,就先把它放过来吧。 说明: 本文只讨论Logistic回归的交叉熵,对Softmax回归的交叉熵 阅读全文
posted @ 2021-08-05 11:01 celine227 阅读(879) 评论(2) 推荐(0) 编辑
摘要: 1、相关性分析协方差:Cov(X,Y)=E(XY)-E(X)E(Y) 或 cov(X, Y) = E(X-EX)(Y-EY),表示两个变量总体误差的期望,范围在负无穷到正无穷。协方差为0时,两者独立。协方差绝对值越大,两者对彼此的影响越大,反之越小公式简单翻译一下是:如果有X,Y两个变量,每个时刻的 阅读全文
posted @ 2021-08-03 12:30 celine227 阅读(955) 评论(0) 推荐(0) 编辑
摘要: 1. 聚类(Clustering) 监督学习:发现数据属性和类别属性之间的关联模式。并通过利用这些模式用来预测未知数据实例的类别属性。 无监督学习:数据没有目标属性。发现数据中存在的内在结构及规律。 无监督学习中研究最多、应用最广的是聚类。常见的无监督学习任务还有密度估计(density estim 阅读全文
posted @ 2021-08-03 11:29 celine227 阅读(510) 评论(0) 推荐(0) 编辑
摘要: 1. 卷积神经网络结构介绍 卷积神经网络 – CNN 最擅长的就是图片的处理。它受到人类视觉神经系统的启发。 CNN 有2大特点: 能够有效的将大数据量的图片降维成小数据量 能够有效的保留图片特征,符合图片处理的原则 目前 CNN 已经得到了广泛的应用,比如:人脸识别、自动驾驶、美图秀秀、安防等很多 阅读全文
posted @ 2021-08-02 21:59 celine227 阅读(1691) 评论(0) 推荐(1) 编辑
摘要: 一、背景 1)梯度消失问题 我们发现很深的网络层,由于参数初始化一般更靠近0,这样在训练的过程中更新浅层网络的参数时,很容易随着网络的深入而导致梯度消失,浅层的参数无法更新。 可以看到,假设现在需要更新b1,w2,w3,w4参数因为随机初始化偏向于0,通过链式求导我们会发现,w1w2w3相乘会得到更 阅读全文
posted @ 2021-08-02 21:53 celine227 阅读(371) 评论(0) 推荐(0) 编辑