会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
淇则有岸,隰则有泮
博客园
首页
联系
订阅
管理
上一页
1
2
3
4
5
下一页
2020年2月8日
卷积神经网络网络结构——ResNet50
摘要: —————————————————————————————————————————————————————— 本文为在csdn博主z小白的文章基础上,做了一些自己的理解与扩展,文末附有原文链接,尊重知识产权从我做起。 —————————————————————————————————————————
阅读全文
posted @ 2020-02-08 20:20 淇则有岸
阅读(36354)
评论(1)
推荐(6)
2020年2月5日
深度学习——卷积神经网络入门
摘要: 传统神经网络: 是全连接形式,即样本的每个特征属性都通过所有的隐藏层节点映射,最后输出数据。由于是全连接,所以计算极为复杂,且模型不易学习。 卷积神经网络:卷积神经网络(Convolutional Neural Networks, CNN), CNN可以有效的降低反馈神经网络(传统神经网络)的复杂性
阅读全文
posted @ 2020-02-05 15:10 淇则有岸
阅读(1428)
评论(0)
推荐(0)
2020年1月15日
深度学习——反向传播tensorflow实现
摘要: 1 import tensorflow as tf 2 import numpy as np 3 4 """ 5 使用tensorflow 实现简单的 线性回归 y = np.dot(x, W) + b 6 """ 7 8 def f1(): 9 """ 10 先使用常量进行构建,展示大致的业务逻辑
阅读全文
posted @ 2020-01-15 13:11 淇则有岸
阅读(628)
评论(0)
推荐(0)
2020年1月7日
机器学习——主题模型
摘要: k个主题时取前k列/前k行
阅读全文
posted @ 2020-01-07 19:55 淇则有岸
阅读(278)
评论(0)
推荐(0)
2020年1月6日
隐马尔可夫模型 机器学习
摘要: 目录: 隐马尔可夫模型 Viterbi算法(必须掌握) 简述:普通领域不常用,自然语言与金融领域用的比较多,总共涉及到概率问题,求参数问题,取范围问题。 用到的知识点有全概率公式,条件概率公式,边缘概率公式,贝叶斯公式,极大似然估计 概率计算问题 直接计算法 暴力算法 前向算法 后向算法 后向算法不
阅读全文
posted @ 2020-01-06 22:03 淇则有岸
阅读(399)
评论(0)
推荐(0)
2020年1月4日
机器学习——EM算法与GMM算法
摘要: 目录 最大似然估计 K-means算法 EM算法 GMM算法(实际是高斯混合聚类) 中心思想:①极大似然估计 ②θ=f(θold) 此算法非常老,几乎不会问到,但思想很重要。 EM的原理推导还是蛮复杂的,图片上没法子编辑公式,直接打字无法完美描述整个过程,所以我直接在纸上打出详细过程加以备注 有哪些
阅读全文
posted @ 2020-01-04 14:30 淇则有岸
阅读(468)
评论(0)
推荐(0)
2020年1月3日
机器学习——贝叶斯算法
摘要: 目录: 朴素贝叶斯 贝叶斯网络 朴素贝叶斯 特征属性之间没有关联关系,相互独立的,在此基础上应用贝叶斯定理。 文本数据分类知识
阅读全文
posted @ 2020-01-03 13:40 淇则有岸
阅读(425)
评论(0)
推荐(0)
2020年1月2日
SVM算法 机器学习
摘要: 目录 梯度下降法、拉格朗日乘子法、KKT条件回顾感知器模型回顾SVM线性可分SVM线性不可分核函数SMO SVM线性可分,SVM线性不可分,核函数,要求会推导 ———————————————————————————— 学习率(步长)可以是任何数,如果是二阶偏导数的话,则为牛顿法 优化问题: 给定一个
阅读全文
posted @ 2020-01-02 22:03 淇则有岸
阅读(1262)
评论(0)
推荐(0)
2020年1月1日
机器学习——谱聚类
摘要: 谱聚类是基于谱图理论基础上的一种聚类方法,与传统的聚类方法相比: 具有在任意形状的样本空间上聚类并且收敛于全局最优解的优点。 通过对样本数据的拉普拉斯矩阵的特征向量进行聚类,从而达到对样本数据进行聚类的目的; 其本质是将聚类问题转换为图的最优划分问题,是一种点对聚类算法。谱聚类算法将数据集中的每个对
阅读全文
posted @ 2020-01-01 19:39 淇则有岸
阅读(451)
评论(0)
推荐(1)
机器学习——Canopy算法
摘要: 原理:先设置两个先验值r1,r2,我把他们理解为内圈外圈,大家可以跟我学。将所有样本放入一个列表,随机选一个样本拿出来作为第一个簇的簇中心点,然后从列表中剩下的所有样本中随机抽取一个,,计算其与簇中心点的距离。 如果大于外圈r1,则不属于此簇,而是拿出去单独成为一簇,并作为簇中心点,从列表中删除此样
阅读全文
posted @ 2020-01-01 18:40 淇则有岸
阅读(1362)
评论(2)
推荐(1)
上一页
1
2
3
4
5
下一页
公告