随笔分类 - MachineLearning
摘要:Logistic Regression The Data 我们将建立一个逻辑回归模型来预测一个学生是否被大学录取。假设你是一个大学系的管理员,你想根据两次考试的结果来决定每个申请人的录取机会。你有以前的申请人的历史数据,你可以用它作为逻辑回归的训练集。对于每一个培训例子,你有两个考试的申请人的分数和
阅读全文
摘要:```python
import pandas as pd
import matplotlib.pyplot as plt women_degrees = pd.read_csv('percent-bachelors-degrees-women-usa.csv')
major_cats = ['Biology', 'Computer Science', 'Engineering', 'Math ...
阅读全文
摘要:Text(0.5, 1.0, 'Percentage of Biology Degrees Awarded By Gender')
阅读全文
摘要:FILM RT_user_norm Metacritic_user_nom \ 0 Avengers: Age of Ultron (2015) 4.3 3.55 1 Cinderella (2015) 4.0 3.75 2 Ant Man (2015) 4.5 4.05 3 Do You Beli
阅读全文
摘要:FILM RT_user_norm \ 0 Avengers: Age of Ultron (2015) 4.30 1 Cinderella (2015) 4.00 2 Ant Man (2015) 4.50 3 Do You Believe? (2015) 4.20 4 Hot Tub Time
阅读全文
摘要:```python import pandas as pd import matplotlib.pyplot as plt unrate = pd.read_csv('unrate.csv') unrate['DATE'] = pd.to_datetime(unrate['DATE']) first_twelve = unrate[0:12] plt.plot(first_twelve['DAT...
阅读全文
摘要:DATE VALUE 0 1948 01 01 3.4 1 1948 02 01 3.8 2 1948 03 01 4.0 3 1948 04 01 3.9 4 1948 05 01 3.5 5 1948 06 01 3.6 6 1948 07 01 3.6 7 1948 08 01 3.9 8 1
阅读全文
摘要:Index(['Avengers: Age of Ultron (2015)', 'Cinderella (2015)', 'Ant Man (2015)', 'Do You Believe? (2015)', 'Hot Tub Time Machine 2 (2015)', 'The Water
阅读全文
摘要:0 Avengers: Age of Ultron (2015) 1 Cinderella (2015) 2 Ant Man (2015) 3 Do You Believe? (2015) 4 Hot Tub Time Machine 2 (2015) Name: FILM, dtype: obje
阅读全文
摘要:(891, 12) 0 22.0 1 38.0 2 26.0 3 35.0 4 35.0 5 NaN 6 54.0 7 2.0 8 27.0 9 14.0 10 4.0 Name: Age, dtype: float64 0 False 1 False 2 False 3 False 4 False
阅读全文
摘要:['NDB_No', 'Shrt_Desc', 'Water_(g)', 'Energ_Kcal', 'Protein_(g)', 'Lipid_Tot_(g)', 'Ash_(g)', 'Carbohydrt_(g)', 'Fiber_TD_(g)', 'Sugar_Tot_(g)', 'Calc
阅读全文
摘要:NDB_No int64 Shrt_Desc object Water_(g) float64 Energ_Kcal int64 Protein_(g) float64 Lipid_Tot_(g) float64 Ash_(g) float64 Carbohydrt_(g) float64 Fibe
阅读全文
摘要:[[ 0. 0.84147098 0.90929743 0.14112001] [ 0.7568025 0.95892427 0.2794155 0.6569866 ] [ 0.98935825 0.41211849 0.54402111 0.99999021] [ 0.53657292 0.420
阅读全文
摘要:array([[ 0, 1, 2, 3, 4], [ 5, 6, 7, 8, 9], [10, 11, 12, 13, 14]]) (3, 5) 2 'int64' 15 array([[0., 0., 0., 0.], [0., 0., 0., 0.], [0., 0., 0., 0.]]) ar
阅读全文
摘要:[0 1 2] [1. 2.71828183 7.3890561 ] [0. 1. 1.41421356] [[6. 7. 8. 7.] [3. 8. 6. 7.] [0. 4. 2. 1.]] (3, 4) [6. 7. 8. 7. 3. 8. 6. 7. 0. 4. 2. 1.] [[6. 7.
阅读全文
摘要:array([False, True, False, False]) array([[False, False, False], [False, True, False], [False, False, False]]) [False True False False] [10] [False Tr
阅读全文
摘要:[ 5 10 15 20] [[ 5 10 12] [20 25 30] [35 40 45]] (5,) (2, 3) ['1' '2' '3' '4.0'] dtype('
阅读全文
摘要:注: 文章中所有的图片均来自台湾大学林轩田《机器学习技法》课程。 笔记原作者:红色石头 微信公众号:AI有道 上节课主要介绍了Decision Tree模型。Decision Tree算法的核心是通过递归的方式,将数据集不断进行切割,得到子分支,最终形成树的结构。C&RT算法是决策树比较简单和常用的
阅读全文
摘要:注: 文章中所有的图片均来自台湾大学林轩田《机器学习技法》课程。 笔记原作者:红色石头 微信公众号:AI有道 上节课主要介绍了Adaptive Boosting。AdaBoost演算法通过调整每笔资料的权重,得到不同的hypotheses,然后将不同的hypothesis乘以不同的系数$\alpha
阅读全文
摘要:注: 文章中所有的图片均来自台湾大学林轩田《机器学习技法》课程。 笔记原作者:红色石头 微信公众号:AI有道 上节课主要开始介绍Aggregation Models,目的是将不同的hypothesis得到的$g_t$集合起来,利用集体智慧得到更好的预测模型$G$。首先我们介绍了Blending,bl
阅读全文

浙公网安备 33010602011771号