05 2021 档案

摘要:介绍 迁移学习指的就是,假设你手上有一些跟你现在要进行的task没有直接相关的data,那你能不能用这些没有直接相关的data来帮助我们做一些什么事情。比如说:你现在做的是猫跟狗的classifer,那所谓没有什么直接相关的data是什么意思呢?没有什么直接相关其实是有很多不同的可能。 比如说inp 阅读全文
posted @ 2021-05-31 16:17 山那边不是山 阅读(120) 评论(0) 推荐(0)
摘要:jytjjjjj 阅读全文
posted @ 2021-05-31 16:05 山那边不是山 阅读(30) 评论(0) 推荐(0)
摘要:jir 阅读全文
posted @ 2021-05-31 16:04 山那边不是山 阅读(31) 评论(0) 推荐(0)
摘要:8哦o 阅读全文
posted @ 2021-05-31 16:02 山那边不是山 阅读(32) 评论(0) 推荐(0)
摘要:ujty 阅读全文
posted @ 2021-05-31 15:59 山那边不是山 阅读(20) 评论(0) 推荐(0)
摘要:Introduction 词嵌入(word embedding)是降维算法(Dimension Reduction)的典型应用 那如何用vector来表示一个word呢? 1-of-N Encoding 最传统的做法是1-of-N Encoding,假设这个vector的维数就等于世界上所有单词的数 阅读全文
posted @ 2021-05-27 15:49 山那边不是山 阅读(93) 评论(0) 推荐(0)
摘要:无监督学习(Unsupervised Learning)可以分为两种: 化繁为简 聚类(Clustering) 降维(Dimension Reduction) 无中生有(Generation) 所谓的“化繁为简”的意思:现在有很多种不同的input,比如说:你现在找一个function,它可以inp 阅读全文
posted @ 2021-05-24 15:28 山那边不是山 阅读(186) 评论(0) 推荐(0)
摘要:半监督学习(semi-supervised learning) 1、introduction 2、Semi-supervised Learning for Generative Model 3、Low-density Separation Assumption:非黑即白 4、Smoothness A 阅读全文
posted @ 2021-05-19 11:16 山那边不是山 阅读(260) 评论(0) 推荐(0)