摘要:
# Collaborative Filtering Recommender Systems > 解决相似度问题 ## 概念 准确率 = $accuracy = \frac{预测正确的样本}{总样本}$ 精确率 = $precision = \frac{预测成功的正类}{预测的正类}$ 【不能误检】 阅读全文
posted @ 2023-07-31 15:45
码农要战斗
阅读(76)
评论(0)
推荐(0)
摘要:
# Regularized ## Cost function for regularized linear regression ### 数学表达式 $$ J(\mathbf{w},b) = \frac{1}{2m} \sum\limits_{i = 0}^{m-1} (f_{\mathbf{w}, 阅读全文
posted @ 2023-07-31 15:44
码农要战斗
阅读(67)
评论(0)
推荐(0)
摘要:
# Softmax Regression > (多标签分类)将多输入的分类值转化为\[0,1\]的概率分布,进而进行逻辑回归算法 > > softmax能将差距大的数值距离拉得更大,但是数值可能会溢出 ## Softmax Function ### 数学表达式 $$ a_j = \frac{e^{z 阅读全文
posted @ 2023-07-31 15:44
码农要战斗
阅读(45)
评论(0)
推荐(0)
摘要:
# Neural Networks > 神经网络:一种计算模型,由大量的节点(或神经元)直接相互关联而构成。每个节点(除输入节点外)代表一种特定的输出函数(或者认为是运算),称为激励函数;每两个节点的连接都代表该信号在传输中所占的比重(即认为该信号对该节点的影响程度) > > 神经网络三要素:模型、 阅读全文
posted @ 2023-07-31 15:43
码农要战斗
阅读(396)
评论(0)
推荐(0)
摘要:
# Logistic Regression > 分类问题 > > 本质是分类,要预测的变量是离散的值 ## 逻辑回归模型 ### 数学表达式 $$ z = \vec w \cdot \vec x + b \tag{1} $$ $$ f_{\vec w, b}(\vec x) = g(z) \tag{ 阅读全文
posted @ 2023-07-31 15:42
码农要战斗
阅读(76)
评论(0)
推荐(0)
摘要:
# Liner Regression with Multiple Variable > 用向量实现的代码,单变量和多变量可以共用 > > 多变量线性回归相当于是单变量的扩展,主要还是按照模型假设、构造代价函数和研究代价函数的最小值这样的思路展开。 > > 与单变量线性回归不同的是,多变量线性回归还可 阅读全文
posted @ 2023-07-31 10:59
码农要战斗
阅读(175)
评论(0)
推荐(0)

浙公网安备 33010602011771号