03 2019 档案
摘要:卷积尺度变化 输入矩阵格式: 样本数目,图像高度,图像宽度,图像通道数 卷积之后矩阵格式: 样本数目,图像高度,图像宽度,图像通道数 (后三个维度在卷积之后会发生变化) 权重矩阵(卷积核的格式:卷积核高度,卷积核宽度,输入通道数,输出通道数(以RGB为例,每个通道对应自己的一个权重矩阵),输出通道数
        阅读全文
            
摘要:业务场景大概是这样,我需要在公司hadoop集群上对博文进行结巴分词。我的数据是存储在hive表格中的,数据量涉及到五百万用户三个月内发的所有博文。 首先对于数据来说,很简单,在hive表格中就是两列,一列代表的是uid,一列代表的是博文内容。举个例子如下: 对于hive表格,我在使用hadoop的
        阅读全文
            
摘要:展示分区命令 show partitions show partitions 可以展示这个表格之下的所有分区信息。这个命令常常用在使用SQL语句操作数据之前。举个简单的例子,如果我们想要根据uid融合两个hive表格,那么在筛选数据的时候用到分区dt(datetime)以确保融合的数据是在同一天
        阅读全文
            
摘要:Hive Load语句不会在加载数据的时候做任何转换工作,而是纯粹的把数据文件复制/移动到Hive表对应的地址。 语法 描述 如果命令中带有LOCAL,说明从本地文件系统加载数据,文件路径可以是相对路径,也可以是绝对路径。在这种情况下,首先将文件从本地复制到hdfs相应的位置,然后移动到hive表格
        阅读全文
            
摘要:desc命令 desc 命令是为了展示hive表格的内在属性。例如列名,data_type,存储位置等信息.这个命令常常用在我们对hive表格观察之时,我们想要知道这个hive各个列名(基于这些具体列名我们才可以使用sql语句挑选数据),hive表格的存储位置(有些时候我们需要查看locatio
        阅读全文
            
摘要:hive 求两个集合的差集 业务场景是这样的,这里由两个hive表格A和B A的形式大概是这样的:uid B的形式大概是这样的:uid 我想要得到存在A中但是不存在B中的uid 具体代码如下 在这里我要穿插一个非常重要的知识点,在A和Bjoin(不管是哪种join),在对结果表格取数据的时候,我们不
        阅读全文
            
摘要:业务场景大概是这样的,这里由两个hive表格,tableA 和 tableB, 格式内容都是这样的: uid cate1 cate2 在hive QL中,我们知道union有着自动去重的功能,但是那是真对几行内容完全一致的情况下才可以。现在我们要进行去重的情况是根据uid进行去重。 也就是说可能存在
        阅读全文
            
摘要:今天的业务场景大概是这样的,我想把hive表格下载到本地文件系统,然后把这个文件传送到另一个服务器上。 但是这个业务场景一个核心问题就是说我本地机器内存有限,hive表格大概是70G,我是不可能全部下载到本地的。这个时候我想到的一个方法就是依靠分区实现这个目的。 首先这个hive表格的内容大概是这样
        阅读全文
            
摘要:一个mapreduce程序大致分成三个部分,第一部分是mapper文件,第二个就是reducer文件,第三部分就是使用hadoop command 执行程序。 在这个过程中,困惑我最久的一个问题就是在hadoop command中hadoop streaming 也就是streaming jar包的
        阅读全文
            
摘要:业务场景大概是这样的,我要对用户博文进行分词(这个步骤可以看这篇文章 "如何在hive调用python的时候使用第三方不存在的库 how to use external python library in hadoop" ) 然后在对每条博文进行分词之后呢,我需要做的就是对分词之后的结果去除停用词,
        阅读全文
            
摘要:今天的一个业务场景就是要把三年的数据从第一天不停的融合起来,每一天作为表格一个新的分区。由于空间有限,数据量很大,可能每天数据都是几十个G的大小。所以我需要做的一点就是在融合这一天之后,删除一天的分区数据,为了保险起见,我删除这一天的前三天的数据。 大致代码是这样的 shell function s
        阅读全文
            
摘要:主要是参考这里,写的很好 "PyTorch 入门实战(四)——利用Torch.nn构建卷积神经网络" 1. 卷积层nn.Con2d() 常用参数 in_channels:输入通道数 out_channels:输出通道数 kernel_size:滤波器(卷积核)大小,宽和高相等的卷积核可以用一个数字表
        阅读全文
            
摘要:不涉及具体代码,只是记录一下自己的疑惑。 我们知道对于在pytorch中,我们通过构建一个词向量矩阵对象。这个时候对象矩阵是随机初始化的,然后我们的输入是单词的数值表达,也就是一些索引。那么我们会根据索引,赋予每个单词独一无二的一个词向量表达。在其后的神经网络训练过程中,每个单词对应独一无二的索引,
        阅读全文
            
摘要:pytorch中的词向量的使用 在pytorch我们使用nn.embedding进行词嵌入的工作。 具体用法就是: 在torch.nn.Embedding的源代码中,它是这么解释, This module is often used to store word embeddings and retr
        阅读全文
            
摘要:pytorch读取图片,主要是通过Dataset类。 Dataset类源代码如下: python class Dataset(object): """An abstract class representing a Dataset. All other datasets should subclas
        阅读全文
            
摘要:我之前大致写了一篇在pytorch中如何自己定义数据集合,在这里 "如何自定义数据集" 不过这个例子使用的是image,也就是图像。如果我们用到的是文本呢,处理的是NLP问题呢? 在解决这个问题的时候,我在网上无意间搜索到这样一篇文章 "PyTorch 入门实战(三)——Dataset和DataLo
        阅读全文
            
摘要:他还写了一篇关于transformer的可以看一看 "transfromer"
        阅读全文
            
摘要:首先介绍一下 encoder decoder 框架 中文叫做编码 解码器,它一个最抽象的模式可以用下图来展现出来: 这个框架模式可以看做是RNN的一个变种:N vs M,叫做Encoder Decoder模型,也可以称之为Seq2Seq模型。 原始的N vs N RNN要求序列等长,然而我们遇到的大
        阅读全文
            
摘要:"这个论文讲述了attention机制的发展历史以及在发展过程的变体 注意力机制(Attention Mechanism)在自然语言处理中的应用" 上面那个论文提到attention在CNN中应用,有一个模型叫做ABCNN模型,我找到了相应的博文解释,写的还是不错的,可以看一下 "这里 《ABCN
        阅读全文
            
摘要:Hierarchical Attention Networks for Document Classification 论文的理解 在论文的摘要中,它提出了论文的两个特点。第一个就是对应文章所有具有的分层结构,这个模型采取了相应的分层结构。这个文章的分层结构怎么理解呢? 文章是具有分层结构的,单词构
        阅读全文
            
摘要:HAN 模型 最开始看这个模型是看的这个解释: RNN+Attention(HAN) 文本分类 阅读笔记 今天做作业没的文章 知乎 https://zhuanlan.zhihu.com/p/42121435 Hierarchical Attention Networks for Document C
        阅读全文
            
摘要:RCNN 首先从这里 "通俗易懂理解——双向LSTM" 我了解到对于RNN来说,上一层的隐层仓的输出和这一时刻输入 两者向量拼接作为输入。这一层的输入维度取决于输入神经元的个数,隐层的输入维度取决于rnn隐层的神经元的个数。 通过这个知识点的了解,我就知道为什么在 "这个教程中" lstm在初始化h
        阅读全文
            
摘要:[具体参考可以看这里(https://cloud.tencent.com/developer/article/1369425)
        阅读全文
            
摘要:在读Convolutional Neural Networks for Sentence Classification 这个文章的时候,它在论文中提出一种模型变种就是 CNN multichannel,也就是多通道CNN。 和最普通的textcnn相比,这个东西最重要的一个区别就是输入为两个通道,一
        阅读全文
            
摘要:第一个模型就是TextCNN 对于textcnn一个基本介绍可以参考 "这里" textcnn 模型的pytorch实现版本 需要参考的链接 "文本分类模型pytorch实现 1" "文本分类模型pytorch实现 2" "文本分类模型多通道CNN讲解" "文本分类模型深度CNN讲解" "NLP如何
        阅读全文
            
摘要:word2vec 20190305学习得到的新的感悟 之前,我一直认为word2vec得到的词向量是输入层和隐层之间的参数,我其实对这句话的理解并不深入。 这句话本质上是没有错的,但是更加准确的说法应该是: 每个单词的one hot词向量模式乘以这个权重矩阵得到的是相对应的单词的word2vec词向
        阅读全文
            
摘要:词向量 我们以句子分类为例,我们使用深度学习模型对句子进行分类,本质上这个模型的接受的舒服需要是数值型。因为文字是人们抽象出来的一个概念,这个 东西是不能被计算机直接理解的,我们需要人为的将这个文字转为数值,换句话讲,我们需要把这个文字嵌入到一个数学空间中去,这中嵌入方式就是词嵌入方式。 Word2
        阅读全文
            
摘要:这篇论文主要是提出了Global attention 和 Local attention 这个论文有一个译文,不过我没细看 Effective Approaches to Attention based Neural Machine Translation 中英文对照翻译 一译的文章 知乎 http
        阅读全文
            
摘要:读论文 Neural Machine Translation by Jointly Learning to Align and Translate 这个论文是在NLP中第一个使用attention机制的论文。他们把attention机制用到了神经网络机器翻译(NMT)上。NMT其实就是一个典型的se
        阅读全文
            
摘要:业务场景大概是这样的,这里由两个hive表格,tableA 和 tableB, 格式内容都是这样的: uid cate1 cate2 在hive QL中,我们知道union有着自动去重的功能,但是那是真对几行内容完全一致的情况下才可以。现在我们要进行去重的情况是根据uid进行去重。 也就是说可能存在
        阅读全文
            
摘要:今天的一个业务场景就是要把三年的数据从第一天不停的融合起来,每一天作为表格一个新的分区。由于空间有限,数据量很大,可能每天数据都是几十个G的大小。所以我需要做的一点就是在融合这一天之后,删除一天的分区数据,为了保险起见,我删除这一天的前三天的数据。 大致代码是这样的 shell function s
        阅读全文
            
 
                    
                
 
 浙公网安备 33010602011771号
浙公网安备 33010602011771号