乞力马扎罗的雪顶  

随笔分类 -  机器学习

  • 机器学习-KNN
    摘要:先存个码# -- coding: utf-8 --import numpy as npimport operatordef createDataSet(): # 创建训练集 group = np.array([[1.0, 1.1], [1.0, 1.0], [0, 0], [0, 0.1]]) la 阅读全文
    posted @ 2020-04-04 21:00 乞力马扎罗的雪顶 阅读(209) 评论(0) 推荐(0)
  • 机器学习-梯度下降基本算法
    摘要:梯度下降 1.随机梯度下降 2.使用动量的随机梯度下降 参考李宏毅教授的机器学习课程,加入了动量参数之后可以解决一部分局部最小值的问题; 虽然随机梯度下降仍然是非常受欢迎的优化方法,但学习速率有时会很慢。 动量方法 (Polyak, 1964) 旨在加速学习,特别是处理高曲率,小但一致的梯度,或是带 阅读全文
    posted @ 2020-02-18 17:29 乞力马扎罗的雪顶 阅读(310) 评论(0) 推荐(0)
  • 机器学习-梯度下降(转载)
    摘要:梯度下降 https://www.jianshu.com/p/c7e642877b0e 反向传播 https://www.jianshu.com/p/96a5ba02bacc 阅读全文
    posted @ 2020-02-17 19:01 乞力马扎罗的雪顶 阅读(105) 评论(0) 推荐(0)
  • 机器学习-K-means
    摘要:序言 K-means算法是非监督学习(unsupervised learning)中最简单也是最常用的一种聚类算法,具有的特点是: 对初始化敏感。初始点选择的不同,可能会产生不同的聚类结果 最终会收敛。不管初始点如何选择,最终都会收敛。 K-means算法 实际上,无论是从算法思想,还是具体实现上, 阅读全文
    posted @ 2020-02-17 12:22 乞力马扎罗的雪顶 阅读(274) 评论(0) 推荐(0)