随笔分类 -  deep learning

摘要:###挑战 多样性 歧义性 ###图灵测试 问答 对话 翻译 ###发展 规则方法、统计学习方法(依赖人工撰写特征)、深度学习方法(表示学习) 阅读全文
posted @ 2021-06-10 00:12 isshpan 阅读(55) 评论(0) 推荐(0)
摘要:###nlp应用 分词、词性标注、命名实体识别 好评/差评判别、情感分析、舆情分析 快递单信息自动识别 搜索 智能问答和对话 机器同传 ###词向量 one-hot表示 把每个词表示为一个长向量。这个向量的维度是词表大小,向量中只有一个维度的值为1,其余维度为0,这个维度就代表了当前的词。 例如:苹 阅读全文
posted @ 2021-06-07 14:41 isshpan 阅读(174) 评论(0) 推荐(0)
摘要:##AutoRec autoEncoder: loss function: ###神经元: 线性函数过一个激活函数(Sigmoid、ReLU、tanh) 反向传播链式法则: 基于物品的AutoEncoder:I-AutoRec,基于用户的AutoEncoder:U-AutoRec ##Deep Cr 阅读全文
posted @ 2021-03-03 20:50 isshpan 阅读(99) 评论(0) 推荐(0)
摘要:#SVM全过程 https://blog.csdn.net/u013019431/article/details/79952483 最大间隔为:2/||w|| 的理解 wx + b = 0 表示空间中某一超平面,你会发现 w, b 同时放大或缩小相同的倍数, 即 𝑎(𝑤𝑥+𝑏)=𝑤′𝑥+ 阅读全文
posted @ 2021-03-02 16:57 isshpan 阅读(64) 评论(0) 推荐(0)
摘要:#简要说明 LR虽然是回归模型,但却是分类方法。 相较于SVM,在二分类问题中,SVM只会回答该样本是正类还是负类;LR,会回答该样本是正类的概率是多少 #模型 #求解方式 利用极大似然 利用梯度下降求解 其中,参数α叫学习率,这个参数设置很关键。如果设置的太大。缺点:那么很容易就在最优值附加徘徊; 阅读全文
posted @ 2021-03-02 16:21 isshpan 阅读(93) 评论(0) 推荐(0)
摘要:推荐模型演化: 协同过滤: UserCF:基于用户相似度 ItemCF:基于物品相似度 相似度计算:Cosine Similarity、皮尔逊相关系数(引入用户平均分,减少了用户评分偏置影响)、还可以引入物品平均分,减少物品评分偏置对结果的影响 UserCF具备强的社交特性,ItemCF适用于兴趣变 阅读全文
posted @ 2021-02-23 21:20 isshpan 阅读(99) 评论(0) 推荐(0)
摘要:推荐系统的数据部分: 客户端及服务端实时数据处理,流处理平台准实时数据处理,大数据平台离线数据处理 实时性:由强到弱 处理能力:由弱到强 推荐系统的模型部分: 召回层:快速从海量候选集召回用户可能感兴趣的物品 排序层:精排 补充策略与算法层:兼顾结果的多样性、流行度、新鲜度 离线训练:利用全量样本和 阅读全文
posted @ 2021-02-23 21:16 isshpan 阅读(72) 评论(0) 推荐(0)
摘要:1、一般来说,error是bias和variance共同作用的结果 2、model比较简单和比较复杂的情况: 当model比较简单的时候,variance比较小,bias比较大,此时$f^\(会比较集中,但是function set可能并没有包含真实值\)\widehat$;此时model受bias 阅读全文
posted @ 2021-02-08 21:26 isshpan 阅读(78) 评论(0) 推荐(0)
摘要:问题的导入:预测宝可梦的CP值 确定Senario、Task和Model 使用的Senario是Supervised Learning 使用的Task是Regression 关于Model,选择很多,这里采用的是Non-linear Model machine Learning的三个步骤: 定义一个 阅读全文
posted @ 2021-02-08 21:19 isshpan 阅读(45) 评论(0) 推荐(0)
摘要:Supervised Learning(监督学习):这种function的output,通常被叫做label(标签) Regression(回归):通过regression找到的function,它的输出是一个scalar数值 Classification(分类):Binary Classifica 阅读全文
posted @ 2021-02-08 21:05 isshpan 阅读(85) 评论(0) 推荐(0)