随笔分类 -  NLP

上一页 1 ··· 4 5 6 7 8 9 10 11 12 下一页
摘要:API 输入:[ batch_size, channels, height_1, width_1 ] Conv2d输入参数:[ channels, output, height_2, width_2 ] 输出:[ batch_size,output, height_3, width_3 ] 实例: 阅读全文
posted @ 2020-02-28 13:46 今夜无风 阅读(696) 评论(0) 推荐(0)
摘要:直接上代码 from collections import Counter import numpy as np text = 'I love china. the dog on the ground' text = text.split() # print(text) vocab = dict(C 阅读全文
posted @ 2020-02-26 16:02 今夜无风 阅读(657) 评论(0) 推荐(0)
摘要:BERT强大的特征抽取能力在各方面的应用如火如荼的展开,今日准备要对BERT输出的特征进行组合,以期能具有更好地变现,现在对model对象做详细的分析。 直观上,我们能够利用bert的信息有:1)pool out [CLS];2)encoder layer;3)hidden state first 阅读全文
posted @ 2020-02-23 21:39 今夜无风 阅读(5174) 评论(0) 推荐(1)
摘要:pytorch几十行代码搞清楚模型的构建和训练 import torch import torch.nn as nn N, D_in, H, D_out = 64, 1000, 100, 10 # data x = torch.randn(N, D_in) y = torch.randn(N, D_ 阅读全文
posted @ 2020-02-23 20:45 今夜无风 阅读(173) 评论(0) 推荐(0)
摘要:对于BERT后时代,不得不说强有力的预训练模型是刷榜、出色完成任务的基础,现在列举几个对此很有帮助的资源,同大家一起进步!!! 一:互联网新闻情感分析复赛top8(8/2745)解决方案及总结; 地址:https://zhuanlan.zhihu.com/p/101554661 大佬的这篇知乎博客总 阅读全文
posted @ 2020-02-21 16:55 今夜无风 阅读(1103) 评论(0) 推荐(0)
摘要:本次介绍假新闻赛道一第一名的构建思路,大家一起学习下 任务描述 文本是新闻信息的主要载体,对新闻文本的研究有助于虚假新闻的有效识别。虚假新闻文本检测,具体任务为:给定一个新闻事件的文本,判定该事件属于真实新闻还是虚假新闻。该任务可抽象为NLP领域的文本分类任务,根据新闻文本内容,判定该新闻是真新闻还 阅读全文
posted @ 2020-02-16 20:10 今夜无风 阅读(4763) 评论(0) 推荐(0)
摘要:一、多模态智能信息检索技术设计1.设计检索的框架流程,设计检索评估方法完成的任务:用户搜索“苹果”,在限定性语境中,如何做到用户是需要找“苹果手机”,而不是水果“苹果”系统输入:一个关键词 输出:同输入词相关的若干词汇(可能是用户需要的敏感词汇)预计出现的问题: 1)输出相似或相关词汇由于模型的误判 阅读全文
posted @ 2020-02-14 17:27 今夜无风 阅读(1050) 评论(0) 推荐(1)
摘要:1.现状 1)为啥诈骗检测的难度高: 诈骗的定义很模糊,很多情况下客户都根本不知道具体的诈骗 表面上诈骗是一个二分类问题(是或者不是),但仔细想想是一个多分类问题,因为每种不同的诈骗都可以当成一个单独的类型 单一类型的诈骗非常之多,普遍存在,同时诈骗的手段也在千变万化。需要不断更新检测手段,不能把赌 阅读全文
posted @ 2020-02-13 10:09 今夜无风 阅读(618) 评论(0) 推荐(0)
摘要:大数据+AI的结合,大家可以学习一下最新的技术组合 基于大数据分布式流处理技术的实时反欺诈解决方案 1.方案引入先进的Hadoop+Spark技术,解决了互联网渠道海量并发行为数据的毫秒级实时响应分析难题,帮助金融机构IT平台向更开放的分布式处理架构演进,轻松应对互联网+时代的大数据处理场景; 2. 阅读全文
posted @ 2020-02-11 15:57 今夜无风 阅读(602) 评论(0) 推荐(0)
摘要:TF2.0最新架构,去除之前版本的冗余、无用接口,具有简单性和易用性 1.使用tf.data加载数据 使用输入管道读取训练数据,输入管道使用tf.data创建 利用tf.feature_column描述特征,如分段和特征交叉 2.使用tf.keras构建、训练并验证模型,或者使用Premade Es 阅读全文
posted @ 2020-02-11 14:59 今夜无风 阅读(214) 评论(0) 推荐(0)
摘要:在线检测系统 模型评估:p-r曲线 阅读全文
posted @ 2020-02-11 14:00 今夜无风 阅读(132) 评论(0) 推荐(0)
摘要:ChineseGLUE Language Understanding Evaluation benchmark for Chinese: datasets, baselines, pre-trained models, corpus and leaderboard 中文语言理解测评基准,包括代表性的 阅读全文
posted @ 2020-02-11 09:21 今夜无风 阅读(2524) 评论(0) 推荐(0)
摘要:文章名《How to Fine-Tune BERT for Text Classification》,2019,复旦大学 如何在文本分类中微调BERT模型? 摘要:预训练语言模型已经被证明在学习通用语言表示方面有显著效果,作为一种最先进的预训练语言模型,BERT在多项理解任务中取得了惊人的成果。在本 阅读全文
posted @ 2020-02-08 13:47 今夜无风 阅读(2908) 评论(0) 推荐(0)
摘要:文章名《Deepening Hidden Representations from Pre-trained Language Models for Natural Language Understanding》,2019,单位:上海交大 从预训练语言模型中深化语言表示 摘要:基于Transforme 阅读全文
posted @ 2020-02-06 23:12 今夜无风 阅读(731) 评论(0) 推荐(1)
摘要:摘要:预训练语言模型如BERT等已经极大地提高了多项自然处理任务的性能,然而预训练语言模型通常具需要很大计算资源,所以其很难在有限的资源设备上运行。为了加速推理、减小模型的尺寸而同时保留精度,首先提出了一个新颖的迁移蒸馏方法,它是一种基于迁移方法的知识蒸馏思路。利用整个新颖的KD方法,大量的知识编码 阅读全文
posted @ 2020-02-05 16:42 今夜无风 阅读(1280) 评论(0) 推荐(0)
摘要:该文主要采用“知识蒸馏”方法对BERT(预训练语言模型)精简、优化,将较大模型压缩成较小的模型,最终目的是:提高模型推理的效率,让运行在智能手机等硬件设备上的深度学习模型具有轻量级、响应快及能源利用率高等特性。 在2019年的NLP领域预训练+微调的模型训练思路百家争鸣,ElMo、GPT、BERT、 阅读全文
posted @ 2020-02-03 20:08 今夜无风 阅读(1247) 评论(0) 推荐(0)
摘要:Link,Paper,Type,Model,Date,Citations https://arxiv.org/abs/1801.06146,Universal Language Model Fine-tuning for Text Classification,New Model ,ULMFiT,1 阅读全文
posted @ 2020-02-03 13:55 今夜无风 阅读(857) 评论(0) 推荐(0)
摘要:给2020年NLP方向做一个指引: 2019 年,可谓是 NLP 发展历程中具有里程碑意义的一年,而其背后的最大功臣当属 BERT ! 2018 年底才发布,BERT 仅用 2019 年一年的时间,便以「势如破竹」的姿态成为了 NLP 领域首屈一指的「红人」,BERT 相关的论文也如涌潮般发表出来。 阅读全文
posted @ 2020-02-03 13:51 今夜无风 阅读(430) 评论(0) 推荐(0)
摘要:预训练文本分类地址: https://www.cnblogs.com/jiangxinyang/p/10241243.html https://www.cnblogs.com/zhouxiaosong/p/11384197.html 快速适配下游任务的工程代码:https://github.com/ 阅读全文
posted @ 2020-01-16 20:58 今夜无风 阅读(227) 评论(0) 推荐(0)
摘要:新年伊始,NLP技术在2019年大放异彩,BERT,GPT-2,Mass,ElMo,ULMFit等预训练+精调的思维路线开辟了新的方向,也给我们这一块带来新的希望! 作为工程技术人员,我们首要就是要将更好的技术应用于产品,获取利润,那么可以在大佬的步伐下吃一波红利,指导应用开发。本人也比较懒,总结做 阅读全文
posted @ 2020-01-16 15:25 今夜无风 阅读(1430) 评论(0) 推荐(0)

上一页 1 ··· 4 5 6 7 8 9 10 11 12 下一页