会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
家迪的家
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
8
9
10
11
12
13
14
15
16
···
20
下一页
2018年8月19日
最小路径和
摘要: 这边记录了Python和Java的解法,Python是一年前的自己写的,Java是现在写的。 Python 这个问题卡了两天,自己也想到了可行的方法,但还是因为时间超出了限制。这个问题的关键在于动态规划,存储中间计算值,这样就大大节约了计算时间。 自己从全排列想到的方法,向右为0,向下为0,先排序出
阅读全文
posted @ 2018-08-19 13:50 家迪的家
阅读(212)
评论(0)
推荐(0)
2018年8月15日
有效的括号
摘要: 栈的应用,很妙。
阅读全文
posted @ 2018-08-15 21:24 家迪的家
阅读(115)
评论(0)
推荐(0)
Maven安装配置
摘要: 环境搭建 官网地址:http://maven.apache.org/ 1. 确保已安装JDK,并配置JAVA_HOME,详情查看Java环境配置 2. 新增环境变量 M2_HOME, C:\Program Files\apache-maven 3. 环境变量Path新增,%M2_HOME%\bin
阅读全文
posted @ 2018-08-15 13:14 家迪的家
阅读(919)
评论(0)
推荐(0)
2018年8月14日
全排列
摘要: 给定一个没有重复数字的序列,返回其所有可能的全排列。 示例: 记录一下自己的思路总结,关于去重复的思路比较棒: 全排序一: 全排序二: 有两种方式,更好的肯定是从底层就不交换大大节约时间,无脑的则是先全排列,后集合去重。
阅读全文
posted @ 2018-08-14 16:34 家迪的家
阅读(172)
评论(0)
推荐(0)
2018年8月5日
SVM
摘要: SVM尝试寻找一个最优的决策边界 最大化margin(2d) 超参数: SVM模型有两个非常重要的参数C与gamma。其中 C是惩罚系数,即对误差的宽容度。c越高,说明越不能容忍出现误差,容易过拟合。C越小,容易欠拟合。C过大或过小,泛化能力变差 gamma是选择RBF函数作为kernel后,该函数
阅读全文
posted @ 2018-08-05 10:38 家迪的家
阅读(659)
评论(1)
推荐(0)
2018年7月30日
决策树
摘要: 什么是决策树 什么是决策树 什么是决策树 非参数学习方法 可以解决分类问题 天然可以解决多分类问题 也可以解决回归问题 非常好的可解释性 复杂度 预测:O(logm)训练: O(n*m*logm)剪枝:降低复杂度,解决过拟合 import numpy as np import matplotlib.
阅读全文
posted @ 2018-07-30 18:05 家迪的家
阅读(340)
评论(0)
推荐(0)
2018年7月26日
神经网络
摘要: 浅层神经网络: 神经网络的输出 神经网络的输出 神经网络的输出 神经网络的输出 矩阵公式:输出=激活函数(输入x权重+偏差) 矩阵公式:输出=激活函数(输入x权重+偏差) 矩阵公式:输出=激活函数(输入x权重+偏差) 矩阵公式:输出=激活函数(输入x权重+偏差) 多层感知器识别手写数字: 关键点:
阅读全文
posted @ 2018-07-26 11:54 家迪的家
阅读(331)
评论(0)
推荐(0)
2018年7月20日
多项式回归
摘要: 多项式回归:升维 多项式回归:升维 多项式回归:升维 原有数据特征下新增维度 # 数据 import numpy as np import matplotlib.pyplot as plt  x = np.random.uniform(-3,3,size=100) X = x.reshape(-1
阅读全文
posted @ 2018-07-20 14:06 家迪的家
阅读(422)
评论(0)
推荐(0)
2018年7月18日
tensorflow GPU版本安装及配置
摘要: 经检测速度大幅度上升,不枉费我折腾了这么久,最坑的就是网上教程、书都没有写将cuda的bin加入全局变量,还是根据报错信息推出来的。 1.cuda9.0下载安装 https://developer.nvidia.com/cuda-90-download-archive?target_os=Windo
阅读全文
posted @ 2018-07-18 11:41 家迪的家
阅读(1562)
评论(0)
推荐(0)
2018年7月10日
梯度下降
摘要: 梯度下降法 在使用梯度下降法前,最好进行数据归一化 不是一个机器学习算法 是一种基于搜索的最优化方法 作用:最小化损失函数 梯度上升法,最大化一个效用函数 η称为学习率 η的值影响获得最优解的速度 η取值不合适甚至得不到最优解 η是梯度下降法的一个超参数 优势 特征越多的情况下,梯度下降相比于正规方
阅读全文
posted @ 2018-07-10 22:20 家迪的家
阅读(476)
评论(0)
推荐(0)
上一页
1
···
8
9
10
11
12
13
14
15
16
···
20
下一页
公告