可解释性
摘要:可解释性 (Interpretation) 可解释性的问题较早就有人提出来,有着不一样的叫法,比如 interpretable, explainable, intelligible, transparent 和 understandable,不一而足。 值得提到的是此处的可解释性与推荐系统的推荐理由
阅读全文
posted @
2020-08-24 10:41
滚雪球效应
阅读(1200)
推荐(0)
维度灾难
摘要:维度灾难带来的问题 由上面我们明白了,有了更好的区分样本类别,我们需要增加特征值个数,从而引来维度灾难问题,那么维度灾难有什么后果呢? 增加了特征值得个数,从而造成了需要填充特征值空间的样本数据以指数形式增长,这对于收集样本数据来说是个恐怖的事情,试想下如果每个维度有100个值对应,那么需要填充5个
阅读全文
posted @
2020-08-24 10:39
滚雪球效应
阅读(397)
推荐(0)
keras中的early stopping
摘要:目的:防止过拟合 # early stoppping from keras.callbacks import EarlyStopping early_stopping = EarlyStopping(monitor='val_loss', patience=50, verbose=2) # 训练 h
阅读全文
posted @
2020-08-20 14:34
滚雪球效应
阅读(2974)
推荐(0)
NER的数据处理
摘要:import os class TransferData: def __init__(self): cur = '/'.join(os.path.abspath(__file__).split('/')[:-1]) #获取当前文件地址的上级目录 #对分类进行标记 self.label_dict =
阅读全文
posted @
2020-08-20 14:09
滚雪球效应
阅读(514)
推荐(0)
ner处理数据的方式
摘要:ner处理数据的方式biodef load_data(filename): features = [] labels = [] f = open(filename, encoding='utf-8') medical = json.load(f) for medical in medical: fe
阅读全文
posted @
2020-08-20 11:43
滚雪球效应
阅读(370)
推荐(0)
bert做阅读理解的一个细节
摘要:如上图所示,展示了如何用BERT来做信息抽取任务的结构图。注意一下几点即可: 1.将Question和Paragraph分别作为BERT的text1和text2输入。 2.start/end span在Paragraph对应的输出位置表示。 通常输出会通过2个dense网络,接到start输出和en
阅读全文
posted @
2020-08-17 13:58
滚雪球效应
阅读(918)
推荐(0)