会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
marsggbo
互道晚安,王者峡谷见
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
20
21
22
23
24
25
26
27
28
···
47
下一页
2019年2月14日
【转载】什么是特征工程?
摘要: 原文:http://www.cnblogs.com/jasonfreak/p/5448385.html 目录 1 特征工程是什么? 2 数据预处理 2.1 无量纲化 2.1.1 标准化 2.1.2 区间缩放法 2.1.3 标准化与归一化的区别 2.2 对定量特征二值化 2.3 对定性特征哑编码 2.
阅读全文
posted @ 2019-02-14 21:08 marsggbo
阅读(480)
评论(0)
推荐(0)
2019年1月28日
【转载】Latex定制章节编号格式和计数器
摘要: 原文: http://www.chengkaiblog.com/software application/latex/customize section format counter.html _1._编号格式 修改 编号格式的方法如下: `\renewcommand\thesubsection{\
阅读全文
posted @ 2019-01-28 18:29 marsggbo
阅读(13979)
评论(0)
推荐(0)
2019年1月27日
【转载】使用python库--Graphviz为论文画出漂亮的示意图
摘要: 原文: "Drawing Graphs using Dot and Graphviz" 1 License Copyright (C) 2013, 2014, 2015, 2016, 2017, 2018 Tony Ballantyne. Permission is granted to copy,
阅读全文
posted @ 2019-01-27 18:51 marsggbo
阅读(3084)
评论(0)
推荐(1)
2019年1月25日
论文笔记系列-iCaRL: Incremental Classifier and Representation Learning
摘要: 导言 传统的神经网络都是基于固定的数据集进行训练学习的,一旦有新的,不同分布的数据进来,一般而言需要重新训练整个网络,这样费时费力,而且在实际应用场景中也不适用,所以增量学习应运而生。 增量学习主要旨在解决 灾难性遗忘(Catastrophic forgetting) 问题,本文将要介绍的《iCaR
阅读全文
posted @ 2019-01-25 21:50 marsggbo
阅读(4798)
评论(2)
推荐(2)
2019年1月24日
【转载】NeurIPS 2018 | 腾讯AI Lab详解3大热点:模型压缩、机器学习及最优化算法
摘要: 原文: "NeurIPS 2018 | 腾讯AI Lab详解3大热点:模型压缩、机器学习及最优化算法" 导读 AI领域顶会NeurIPS正在加拿大蒙特利尔举办。本文针对实验室关注的几个研究热点,模型压缩、自动机器学习、机器学习与最优化算法,选取23篇会议上入选的重点论文进行分析解读,与大家分享。En
阅读全文
posted @ 2019-01-24 10:36 marsggbo
阅读(1495)
评论(0)
推荐(1)
2019年1月21日
【转载】论文笔记系列-Tree-CNN: A Deep Convolutional Neural Network for Lifelong Learning
摘要: 一、 引出主题¶ 深度学习领域一直存在一个比较严重的问题——“灾难性遗忘”,即一旦使用新的数据集去训练已有的模型,该模型将会失去对原数据集识别的能力。为解决这一问题,本文提出了树卷积神经网络,通过先将物体分为几个大类,然后再将各个大类依次进行划分、识别,就像树一样不断地开枝散叶,最终叶节点得到的类别
阅读全文
posted @ 2019-01-21 11:06 marsggbo
阅读(641)
评论(0)
推荐(0)
2019年1月19日
Python print输出重定向到文件和屏幕,超简单
摘要: 微信公众号:AutoML机器学习 MARSGGBO♥原创 如有意合作或学术讨论欢迎私戳联系~邮箱:marsggbo@foxmail.com 2020.03.1
阅读全文
posted @ 2019-01-19 22:18 marsggbo
阅读(12263)
评论(2)
推荐(2)
2019年1月18日
Jupyter如何将numpy数据以图像形式展现?
摘要: 示例如下: 注意通道数需要在最后一个维度。 MARSGGBO♥原创 2019 1 18
阅读全文
posted @ 2019-01-18 20:39 marsggbo
阅读(1132)
评论(0)
推荐(0)
2019年1月17日
AutoML总结
摘要: 原文: "JxKing的博客 | JxKing Blog" 前言 AutoML是指尽量不通过人来设定超参数,而是使用某种学习机制,来调节这些超参数。这些学习机制包括传统的贝叶斯优化,多臂老 虎 机(multi armed bandit),进化算法,还有比较新的强化学习。 我将AutoML分为 传统A
阅读全文
posted @ 2019-01-17 09:40 marsggbo
阅读(2397)
评论(0)
推荐(1)
2019年1月9日
DeepLearning.ai学习笔记(五)序列模型 -- week2 序列模型和注意力机制
摘要: 一、基础模型 假设要翻译下面这句话: "简将要在9月访问中国" 正确的翻译结果应该是: "Jane is visiting China in September" 在这个例子中输入数据是10个中文汉字,输出为6个英文单词,$T_x$和$T_y$数量不一致,这就需要用到序列到序列的RNN模型。 类
阅读全文
posted @ 2019-01-09 22:11 marsggbo
阅读(707)
评论(0)
推荐(0)
上一页
1
···
20
21
22
23
24
25
26
27
28
···
47
下一页
公告