2024年8月5日
摘要: 绪论1、数据库(DB):长期存储在计算机内、有组织、可共享的大量数据的集合。数据库中的数据按照一定的数据模型组织、描述和存储,具有娇小的冗余度、交稿的数据独立性和易扩展性,并可为各种用户共享。2、数据库管理系统(DBMS):位于用户和操作系统间的数据管理系统的一层数据管理软件。用途;科学地组织和存储 阅读全文
posted @ 2024-08-05 21:51 风起- 阅读(53) 评论(0) 推荐(0)
摘要: 误差反向传播法一 一个高效计算权重以及偏置量的梯度方法 ReLU 反向传播实现 class Relu: def _init_(self): self.x = None def forward(self,x): self.x = np.maximum(0,x) out = self.x return 阅读全文
posted @ 2024-08-05 21:32 风起- 阅读(90) 评论(0) 推荐(0)
  2024年8月1日
摘要: umpy.array()产生的数据可以是一维,二维乃至n维 numpy.matrix() 产生的数据是严格的二维 numpy.abs()计算绝对值numpy.linalg.norm()计算范数,默认计算L2范数numpy.linsapce()指定的间隔内返回均匀间隔数组numpy.maximum() 阅读全文
posted @ 2024-08-01 17:38 风起- 阅读(33) 评论(0) 推荐(0)
摘要: 梯度在各自空间的每一个点上对应的物理量概有强度,也有方向,将这些既有大小又有方向的场抽像出来便可以得到向量场。松手瞬间小球运动方向在X1X2平面上的投影就是梯度下降方向也叫下山方向,它反方向叫梯度向量,也叫上山方向·行向量转置可得到列向量,转置运算符为b=aT可以用len (a)计算向量元素个数 构 阅读全文
posted @ 2024-08-01 11:58 风起- 阅读(65) 评论(0) 推荐(0)
  2024年7月31日
摘要: 1、跟随梯度(数值微分) 不需要随机寻找权重,可以直接计算最好的方向,这个方向就是损失函数的梯度。梯度就是在每个维度上偏导数形成的向量。 计算梯度有两种方法,一种是缓慢的近似方法,即数值梯度法,另一种是分析梯度法,需要使用微分,虽然计算迅速,结果精确但是实现时容易出错 对上述公式编写一个函数 def 阅读全文
posted @ 2024-07-31 11:40 风起- 阅读(78) 评论(0) 推荐(0)
摘要: 1、选取的图像最好是正射影像 2、新建面矢量,覆盖住图像中的建筑。 3、进行矢量转栅格,重分类为1,将Nodata改为0.(后期使用栅格计算器相加得不出0与1的结果) 4、继续新建面矢量,覆盖整个图像,矢量转栅格后重分类为0. 5、使用栅格计算器,将图像栅格与建筑栅格相加,获取有0、1标注的样本。 阅读全文
posted @ 2024-07-31 10:03 风起- 阅读(31) 评论(0) 推荐(0)
  2024年7月30日
摘要: 一个神经网络的训练算法就是让权重的值调整到最佳,以使得整个网络的预测(或者分类)效果最好。 一般来说更多神经元的神经网络可以表达更复杂的函数。然而这既是优势也是不足,优势是可以分类更复杂的数据,不足是可能会造成对训练数据的过拟合。过拟合(Overfitting)是指网络对数据中的噪声有很强的拟合能力 阅读全文
posted @ 2024-07-30 16:57 风起- 阅读(73) 评论(0) 推荐(0)
  2024年7月29日
摘要: 线性问题主要处理回归问题,回归问题即预测一个连续问题的数值。 计算决定系数(R-squared,也称为R²或系数决定)是衡量回归模型预测准确性的一个常用指标。R-squared值越接近1,表示模型的预测性能越好;如果R-squared值为0,则表示模型只是简单地预测了目标变量的平均值;如果R-squ 阅读全文
posted @ 2024-07-29 18:04 风起- 阅读(64) 评论(0) 推荐(0)
  2024年7月28日
摘要: KNN在Cifar上的应用 def getXmean(X_train): X_train = np.reshape(X_train, (X_train.shape[0], -1)) # 将图片从二维展开为一维 mean_image = np.mean(X_train, axis=0) # 求出训练集 阅读全文
posted @ 2024-07-28 19:52 风起- 阅读(49) 评论(0) 推荐(0)
  2024年7月27日
摘要: KNN——最近邻算法(即选择最近的占比最高的类别作为预测类别) KNN算法的计算逻辑 1)给定测试对象,计算它与训练集中每个对象的距离。 2)圈定距离最近的k个训练对象,作为测试对象的邻居。 3)根据这k个近邻对象所属的类别,找到占比最高的那个类别作为测试对象的预测类别。 在 KNN算法中,有两个方 阅读全文
posted @ 2024-07-27 12:21 风起- 阅读(87) 评论(0) 推荐(0)