04 2022 档案

重学逻辑回归【学习笔记】
摘要:逻辑回归很简单 但是一直不明确 来源B站的 视频 老弓箭 【模型】 对每个特征加一个权重 然后放入sigmoid函数中,得到0-1的值 表示概率 【公式】 【损失函数】 交叉熵损失 确定损失函数的步骤 其实就是极大似然估计步骤. (这里可以看统计学习方法6.1.3模型参数估计,即先写出似然函数)(此 阅读全文

posted @ 2022-04-13 15:44 nlp如此迷人 阅读(82) 评论(0) 推荐(0)

重学transformer【学习笔记】
摘要:以前对transformer的了解只能说个大概 你要说会吧 会的不彻底 不会吧 还能扯一顿。 来源:B站 老弓的学习笔记 这一步讲 decoder的工作原理 怎么感觉像个串行的?一会需要多注意 分批的时候是按照批次内的最长 我记得不是可设置吗 填充到多少? 拿一个batch举例 input不需要处理 阅读全文

posted @ 2022-04-12 15:09 nlp如此迷人 阅读(151) 评论(0) 推荐(0)

关于深度学习优化器【转载以学习、回忆】
摘要:来源链接:https://mp.weixin.qq.com/s/kUE7NcTiQyYP-oWi0T_mbA 来源公众号:阿柴的算法学习日记 转载以学习回忆 ___________________________开始 原文此处有动图。。。。 梯度下降是指,给定待优化的模型参数和目标函数后,算法沿梯度 阅读全文

posted @ 2022-04-09 22:50 nlp如此迷人 阅读(87) 评论(0) 推荐(0)

EMNLP 2021 基于Prompt的方面级情感分析研究【转载以学习、回忆】
摘要:来源链接:https://mp.weixin.qq.com/s/xaG9Nqxhb1eqt1q6DSZMZg 来源Fudan DISC实验室 转载以学习、回忆 1. 基于自然语言提示的开放式方面目标情感分类 (Open Aspect Target Sentiment Classification w 阅读全文

posted @ 2022-04-05 16:24 nlp如此迷人 阅读(1704) 评论(0) 推荐(0)

关于PCA的总结
摘要:学tranformers的时候记得一种什么~~~流的降维方法,经过查看 链接:https://mp.weixin.qq.com/s?__biz=MzAxOTU5NTU4MQ==&mid=2247489739&idx=1&sn=c766511d71bd9ffcd17fb29536f59ca4&chks 阅读全文

posted @ 2022-04-05 09:48 nlp如此迷人 阅读(115) 评论(0) 推荐(0)

学习率预热linear warmup【转载以学习、回忆】
摘要:来源链接:https://mp.weixin.qq.com/s?__biz=MzAxOTU5NTU4MQ==&mid=2247488715&idx=1&sn=2acedd3705b27e5b9e259485f2dd9653&chksm=9bc5fc99acb2758f82b638d03ace8993 阅读全文

posted @ 2022-04-03 09:05 nlp如此迷人 阅读(459) 评论(0) 推荐(0)

导航