摘要: 线性回归 输入与输出符合线性关系 定义损失函数,损失函数是点(输入 ,标签)到直线的距离表示,越小越好 通过梯度下降的方法,求解最优参数 是一个迭代更新的过程 属于监督学习 逻辑回归 输入属于与输入不符合线性关系 标签为0-1 只能通过梯度下降来求最优参数 分类任务, GBDT (梯度提升决策树) 阅读全文
posted @ 2021-08-24 13:59 Simbanana 阅读(3072) 评论(0) 推荐(0)
摘要: ####sklearn.model_selection.split模块 将模型分割,eg.数据集与验证集 ####Keras分词器 Tokenizer 测试的时候由于版本问题,导包要在Keras前面家tensorflow. Tokenizer中ovv以及其它参数的使用案例 ####序列预处理pad_ 阅读全文
posted @ 2021-08-19 18:19 Simbanana 阅读(54) 评论(0) 推荐(0)
摘要: from collections import Counter from contextlib import contextmanager import copy from functools import partial from itertools import chain from multi 阅读全文
posted @ 2021-08-17 20:26 Simbanana 阅读(80) 评论(0) 推荐(0)
摘要: ##任务的目的 ###原文表述 Jigsaw Unintended Bias in Toxicity Classification Training a model from data with these imbalances risks simply mirroring those biases 阅读全文
posted @ 2021-08-12 14:37 Simbanana 阅读(119) 评论(0) 推荐(0)
摘要: 通过anaconda创建了新的环境后,进入新的环境,通过pip命令安装依赖的包,安装的位置为:/opt/anaconda3/envs/tf2/lib/python3.8/site-packages,即anaconda目录下,对应环境里,python3.8(根据python版本确定)下的site-pa 阅读全文
posted @ 2021-08-12 12:26 Simbanana 阅读(27) 评论(0) 推荐(0)
摘要: ##目的: ####将输入的语句,换一种形式输出,不改变原有的意思 ##过程: ####数据预处理: 分为两个字典 待翻译字典 翻译后的字典 下标-to-字符 字符-to-下标 两个长度 Tx:待翻译句子的最大长度,小于则用做填充,大于则截取,一般选取词典的大小 Ty:f翻译后语句的长度,通过需求设 阅读全文
posted @ 2021-08-11 16:31 Simbanana 阅读(66) 评论(0) 推荐(0)
摘要: #####目的:通过输入目标语句,输出对应的表情 过程: 1、计算句子的平均词向量 传入:目标句子、词向量词典 将目标句子进行分词处理 将每个词的词向量累加并基数,再求平均 输出:输出平均词向量 2、训练模型 传入(训练集,标签集,词向量词典,学习率,迭代次数) 输出(预测的概率集合, softMa 阅读全文
posted @ 2021-08-09 20:12 Simbanana 阅读(81) 评论(0) 推荐(0)
摘要: 1、导包 2、加载词向量 3、词嵌入向量--独热编码 4、余弦相似度的(图一) 通过点乘完成二范式的计算(针对一维向量可以实现) 练习一 5、词类推任务 练习二 函数 推理(三个词、一个词嵌入字典) 将词转换成小写 得到对应的词嵌入向量 得到字典中的所有词 设置初始相似度值以及最优解 遍历整个字典 阅读全文
posted @ 2021-08-06 16:38 Simbanana 阅读(54) 评论(0) 推荐(0)
摘要: #####加载生语料,并进行预处理,使之成为可供模型训练的“值” #####输入:X ( m , Tx , n ) m表示样本的个数 Tx表示有多少时间步(一个样本被分成了多少个部分 n表示有多少个候选项(所有音符) #####与恐龙名字对比: 初始化: 生成音乐:X初始化为非0向量,因为音乐是从片 阅读全文
posted @ 2021-08-04 17:47 Simbanana 阅读(171) 评论(0) 推荐(0)
摘要: ##1、打开数据集 读取恐龙名字,并创建字符列表 创建 char_to_ix 与 ix_to_char,作用:将softmax结果转换成字母 ##2、初始化参数 输入X 0向量 隐藏层状态a 0向量 循环: 前向传播计算损失 反向传播计算关于损失的梯度 修剪梯度以免梯度爆炸 用梯度下降更新规则更新参 阅读全文
posted @ 2021-08-04 10:12 Simbanana 阅读(154) 评论(0) 推荐(0)