12 2017 档案
摘要:maven的setting.xm需要配置jdk全局 jdk-1.8 true 1.8 1.8 1.8 1.8 局部 ...
阅读全文
摘要:maven的setting.xm需要配置jdk全局 jdk-1.8 true 1.8 1.8 1.8 1.8 局部 ...
阅读全文
摘要:1、处理输入文本为对,继承Mapper方法package com.cr.hdfs;import org.apache.hadoop.io.IntWritable;import org.apache.hadoop.io.LongWritable;import org.a...
阅读全文
摘要:1、处理输入文本为对,继承Mapper方法package com.cr.hdfs;import org.apache.hadoop.io.IntWritable;import org.apache.hadoop.io.LongWritable;import org.a...
阅读全文
摘要:错误提示:INFO hdfs.DFSClient: Exception in createBlockOutputStreamjava.net.NoRouteToHostException: No route to host at sun.nio.ch.S...
阅读全文
摘要:错误提示:INFO hdfs.DFSClient: Exception in createBlockOutputStreamjava.net.NoRouteToHostException: No route to host at sun.nio.ch.S...
阅读全文
摘要:缺少了winutil.exe 点击打开链接
阅读全文
摘要:缺少了winutil.exe 点击打开链接
阅读全文
摘要:看了很多博客,对于这个问题的解决,但是最后都没有成功后来我重新在官网下载了一个Hadoop安装包配置好环境变量将Hadoop相关的jar包加入到项目里面重新编译就可以了注意这里加入的jar包来自于由于这里面的jar包包含了sources包和tests包我们把他分离出来...
阅读全文
摘要:看了很多博客,对于这个问题的解决,但是最后都没有成功后来我重新在官网下载了一个Hadoop安装包配置好环境变量将Hadoop相关的jar包加入到项目里面重新编译就可以了注意这里加入的jar包来自于由于这里面的jar包包含了sources包和tests包我们把他分离出来...
阅读全文
摘要:新建Java工程package com.cr.java;import org.apache.hadoop.fs.FsUrlStreamHandlerFactory;import org.junit.Test;import javax.print.DocFlavor;i...
阅读全文
摘要:新建Java工程package com.cr.java;import org.apache.hadoop.fs.FsUrlStreamHandlerFactory;import org.junit.Test;import javax.print.DocFlavor;i...
阅读全文
摘要:1、version_1 /** * 通过Hadoop API访问HDFS * @throws IOException */ @Test public void readFileByAPI() throws IOException {...
阅读全文
摘要:1、version_1 /** * 通过Hadoop API访问HDFS * @throws IOException */ @Test public void readFileByAPI() throws IOException {...
阅读全文
摘要:1、读取文件 /** * 测试读取文件 * @throws IOException */ @Test public void testSave() throws IOException { Configuratio...
阅读全文
摘要:1、读取文件 /** * 测试读取文件 * @throws IOException */ @Test public void testSave() throws IOException { Configuratio...
阅读全文
摘要:1、查看镜像文件[xiaoqiu@s150 /home/xiaoqiu/hadoop_tmp/dfs/name/current]$ ls -h |grep fsimagefsimage_0000000000000000000fsimage_00000000000000...
阅读全文
摘要:1、查看镜像文件[xiaoqiu@s150 /home/xiaoqiu/hadoop_tmp/dfs/name/current]$ ls -h |grep fsimagefsimage_0000000000000000000fsimage_00000000000000...
阅读全文
摘要:start-all.sh --->start-dfs.sh + start-yarn.shstart-dfs.sh ---->hadoop-daemon.sh start namenode + hadoop-daemons.sh start datano...
阅读全文
摘要:start-all.sh --->start-dfs.sh + start-yarn.shstart-dfs.sh ---->hadoop-daemon.sh start namenode + hadoop-daemons.sh start datano...
阅读全文
摘要:1、目录配额[xiaoqiu@s150 /home/xiaoqiu/hadoop_tmp]$ hadoop fs -lsr /lsr: DEPRECATED: Please use 'ls -R' instead.drwxr-xr-x - xiaoqiu supe...
阅读全文
摘要:1、目录配额[xiaoqiu@s150 /home/xiaoqiu/hadoop_tmp]$ hadoop fs -lsr /lsr: DEPRECATED: Please use 'ls -R' instead.drwxr-xr-x - xiaoqiu supe...
阅读全文
摘要:在data目录下启用快照[xiaoqiu@s150 /home/xiaoqiu/hadoop_tmp]$ hdfs dfsadmin -allowSnapshot data创建快照[xiaoqiu@s150 /home/xiaoqiu/hadoop_tmp]$ hdf...
阅读全文
摘要:在data目录下启用快照[xiaoqiu@s150 /home/xiaoqiu/hadoop_tmp]$ hdfs dfsadmin -allowSnapshot data创建快照[xiaoqiu@s150 /home/xiaoqiu/hadoop_tmp]$ hdf...
阅读全文
摘要:用root用户登陆,杀死进程[xiaoqiu@s150 /soft/hadoop/etc/hadoop]$ su rootPassword:su: Authentication failure[xiaoqiu@s150 /soft/hadoop/etc/hadoop]...
阅读全文
摘要:用root用户登陆,杀死进程[xiaoqiu@s150 /soft/hadoop/etc/hadoop]$ su rootPassword:su: Authentication failure[xiaoqiu@s150 /soft/hadoop/etc/hadoop]...
阅读全文
摘要:安装wheel pip install wheel以安装scipy为例,在官网下载安装包https://pypi.python.org/pypi/scipy一定要注意这里的版本一定要和你的python所支持的版本一直否则会出现C:\Users\xiaoqiu>pip...
阅读全文
摘要:安装wheel pip install wheel以安装scipy为例,在官网下载安装包https://pypi.python.org/pypi/scipy一定要注意这里的版本一定要和你的python所支持的版本一直否则会出现C:\Users\xiaoqiu>pip...
阅读全文
摘要:Linux的脚本需要放在/usr/local/bin目录下[xiaoqiu@s150 /usr/local/bin]$ sudo touch xcall.sh[sudo] password for xiaoqiu:Sorry, try again.[sudo] pas...
阅读全文
摘要:Linux的脚本需要放在/usr/local/bin目录下[xiaoqiu@s150 /usr/local/bin]$ sudo touch xcall.sh[sudo] password for xiaoqiu:Sorry, try again.[sudo] pas...
阅读全文
摘要:File "E:\Python36\regtree.py", line 45, in chooseBestSplit if len(set(dataSet[:,-1].T.tolist()[0])) == 1: #exit cond 1TypeError: l...
阅读全文
摘要:File "E:\Python36\regtree.py", line 45, in chooseBestSplit if len(set(dataSet[:,-1].T.tolist()[0])) == 1: #exit cond 1TypeError: l...
阅读全文
摘要:矩阵转列表>>> testMatmatrix([[ 1., 0., 0., 0.], [ 0., 1., 0., 0.], [ 0., 0., 1., 0.], [ 0., 0., 0., 1.]])>...
阅读全文
摘要:矩阵转列表>>> testMatmatrix([[ 1., 0., 0., 0.], [ 0., 1., 0., 0.], [ 0., 0., 1., 0.], [ 0., 0., 0., 1.]])>...
阅读全文
摘要:根据某列值进行样本的分类'''dataSet:数据集feature:待划分的特征value:对应的特征值'''def binSplitDataSet(dataSet, feature, value): #dataSet[:,feature]取出该列特征值 ...
阅读全文
摘要:根据某列值进行样本的分类'''dataSet:数据集feature:待划分的特征value:对应的特征值'''def binSplitDataSet(dataSet, feature, value): #dataSet[:,feature]取出该列特征值 ...
阅读全文
摘要:Hadoop fs 等价于 hdfs dfs [xiaoqiu@s150 bin]$ hdfs dfsUsage: hadoop fs [generic options] fs run a generic filesystem u...
阅读全文
摘要:Hadoop fs 等价于 hdfs dfs [xiaoqiu@s150 bin]$ hdfs dfsUsage: hadoop fs [generic options] fs run a generic filesystem u...
阅读全文
摘要:如果采用scp会将符号链接转为目录,所以我们采用rsync实现远程同步启动所有slave节点的Hadoop进程的脚本[xiaoqiu@s150 bin]$ cat xcall.sh#!/usr/bin/env bashi=150params=$@for((i=150;...
阅读全文
摘要:如果采用scp会将符号链接转为目录,所以我们采用rsync实现远程同步启动所有slave节点的Hadoop进程的脚本[xiaoqiu@s150 bin]$ cat xcall.sh#!/usr/bin/env bashi=150params=$@for((i=150;...
阅读全文
摘要:编写一个脚本一次性查看所有主机的主机名在/usr/local/bin目录下新建一个脚本[root@s130:/usr/local/bin]cat xcall.sh#!/bin/shi=130#传递所有的参数params=$@for((i=130;i<=133;i=$i...
阅读全文
摘要:编写一个脚本一次性查看所有主机的主机名在/usr/local/bin目录下新建一个脚本[root@s130:/usr/local/bin]cat xcall.sh#!/bin/shi=130#传递所有的参数params=$@for((i=130;i<=133;i=$i...
阅读全文
摘要:矩阵转列表from numpy import *a = mat([[1,34,3],[2,3,41],[2,34,41],[2,53,41]])print(a.flatten())print(a.flatten().A)#矩阵转为列表print(a.flatten(...
阅读全文
摘要:矩阵转列表from numpy import *a = mat([[1,34,3],[2,3,41],[2,34,41],[2,53,41]])print(a.flatten())print(a.flatten().A)#矩阵转为列表print(a.flatten(...
阅读全文
摘要:将三维矩阵转为二维矩阵矩阵降维-将矩阵按照某列进行排序from numpy import *a = mat([[1,34,3],[2,3,41],[2,34,41],[2,53,41]])print(a)srtInd=a[:,1].argsort(0)print(s...
阅读全文
摘要:将三维矩阵转为二维矩阵矩阵降维-将矩阵按照某列进行排序from numpy import *a = mat([[1,34,3],[2,3,41],[2,34,41],[2,53,41]])print(a)srtInd=a[:,1].argsort(0)print(s...
阅读全文
摘要:修改主机名[root@localhost:/soft/hadoop2.7/etc/hadoop]nano /etc/hostname[root@localhost:/soft/hadoop2.7/etc/hadoop][root@localhost:/soft/had...
阅读全文
摘要:修改主机名[root@localhost:/soft/hadoop2.7/etc/hadoop]nano /etc/hostname[root@localhost:/soft/hadoop2.7/etc/hadoop][root@localhost:/soft/had...
阅读全文
摘要:查看端口是否启用[root@localhost:/soft/hadoop2.7/etc/hadoop]netstat -ano |grep 50070tcp 0 0 0.0.0.0:50070 0.0.0.0:* ...
阅读全文
摘要:查看端口是否启用[root@localhost:/soft/hadoop2.7/etc/hadoop]netstat -ano |grep 50070tcp 0 0 0.0.0.0:50070 0.0.0.0:* ...
阅读全文
摘要:参考博客:点击打开链接重新定义Hadoop的临时存储目录修改core-site.xml在家目录新建一个文件夹[root@localhost:/root]mkdir hadoop_tmp修改core-site.xml[root@localhost:/soft/hadoo...
阅读全文
摘要:参考博客:点击打开链接重新定义Hadoop的临时存储目录修改core-site.xml在家目录新建一个文件夹[root@localhost:/root]mkdir hadoop_tmp修改core-site.xml[root@localhost:/soft/hadoo...
阅读全文
摘要:将安装包复制到/soft文件目录下解压[hadoop@localhost soft]$ sudo tar -zxvf hadoop-2.7.5.tar.gz删除安装包[hadoop@localhost soft]$ sudo rm -rf hadoop-2.7.5.t...
阅读全文
摘要:将安装包复制到/soft文件目录下解压[hadoop@localhost soft]$ sudo tar -zxvf hadoop-2.7.5.tar.gz删除安装包[hadoop@localhost soft]$ sudo rm -rf hadoop-2.7.5.t...
阅读全文
摘要:切换到root模式,编辑etc/sudoers[hadoop@localhost /]$ su rootPassword:ABRT has detected 1 problem(s). For more info run: abrt-cli list[root@loc...
阅读全文
摘要:切换到root模式,编辑etc/sudoers[hadoop@localhost /]$ su rootPassword:ABRT has detected 1 problem(s). For more info run: abrt-cli list[root@loc...
阅读全文
摘要:1、jdk安装将安装包复制到/soft目录下解压sudo tar -zxvf jdk-8u66-linux-x64.gz删除安装包[hadoop@localhost soft]$ sudo rm -rf jdk-8u66-linux-x64.gz创建符号连接[hado...
阅读全文
摘要:1、jdk安装将安装包复制到/soft目录下解压sudo tar -zxvf jdk-8u66-linux-x64.gz删除安装包[hadoop@localhost soft]$ sudo rm -rf jdk-8u66-linux-x64.gz创建符号连接[hado...
阅读全文
摘要:Hadoop端口:50070 ======》namenode http port50075 =======》datanode http port 50090 ========》2namenode http port8020 ========》namenode ...
阅读全文
摘要:Hadoop安装成功之后,访问不了web界面的50070端口先查看端口是否启用[hadoop@s128 sbin]$ netstat -ano |grep 50070然后查看防火墙的状态,是否关闭,如果没有,强制性关闭查看防火墙状态:[hadoop@s128 sbin...
阅读全文
摘要:Hadoop安装成功之后,访问不了web界面的50070端口先查看端口是否启用[hadoop@s128 sbin]$ netstat -ano |grep 50070然后查看防火墙的状态,是否关闭,如果没有,强制性关闭查看防火墙状态:[hadoop@s128 sbin...
阅读全文
摘要:1、启动dananode hadoop-daemon.sh start datanode
阅读全文
摘要:1、启动dananode hadoop-daemon.sh start datanode
阅读全文
摘要:网络连接模式1、桥接模式centos相当于一台物理机,可以直接连接外网,能够连接同一个局域网下为桥接模式的其他宿主机上的客户机2、NAT模式通过宿主机连接外网,可以访问同一个局域网的其他物理主机,但是其他主机不能够访问该宿主机3、only host不能连接外网,可以连...
阅读全文
摘要:网络连接模式1、桥接模式centos相当于一台物理机,可以直接连接外网,能够连接同一个局域网下为桥接模式的其他宿主机上的客户机2、NAT模式通过宿主机连接外网,可以访问同一个局域网的其他物理主机,但是其他主机不能够访问该宿主机3、only host不能连接外网,可以连...
阅读全文
摘要:切换用户[root@localhost ~]# su hadoop[hadoop@localhost root]$ su rootPassword:[root@localhost ~]#显示当前目录:pwd进入上次目录:cd -按列表形式查看目录:ls -l 等价于 ...
阅读全文
摘要:切换用户[root@localhost ~]# su hadoop[hadoop@localhost root]$ su rootPassword:[root@localhost ~]#显示当前目录:pwd进入上次目录:cd -按列表形式查看目录:ls -l 等价于 ...
阅读全文
摘要:修改参数代码见上一节代码地址Java版本:JavaRDD rdd1 = sc.textFile(args[0])Scala版本:val rdd1 = sc.textFile(args(0))编译添加spark依赖包 org.apache.spa...
阅读全文
摘要:修改参数代码见上一节代码地址Java版本:JavaRDD rdd1 = sc.textFile(args[0])Scala版本:val rdd1 = sc.textFile(args(0))编译添加spark依赖包 org.apache.spa...
阅读全文
摘要:1、特点快如闪电的集群计算:是Hadoop的100倍,磁盘计算快10倍大规模快速通用的计算引擎:支持Java/scala/python/R 提供80+种操作符,容易构建并行应用 组合SQL 流计算 复杂分析运行环境:Hadoop mesos,standa...
阅读全文
摘要:1、特点快如闪电的集群计算:是Hadoop的100倍,磁盘计算快10倍大规模快速通用的计算引擎:支持Java/scala/python/R 提供80+种操作符,容易构建并行应用 组合SQL 流计算 复杂分析运行环境:Hadoop mesos,standa...
阅读全文
摘要:1、什么是回归已知数据集,求这些数据集的函数表达式的过程2、logistic回归数据类型:数值型和标称型3、优点:计算代价不高,易于理解和实现缺点:容易欠拟合,分类精度可能不高4、实现原理:将每个特征值乘以一个回归系数,然后将这些值相加,将总和带入到sigmoid函数...
阅读全文
摘要:1、什么是回归已知数据集,求这些数据集的函数表达式的过程2、logistic回归数据类型:数值型和标称型3、优点:计算代价不高,易于理解和实现缺点:容易欠拟合,分类精度可能不高4、实现原理:将每个特征值乘以一个回归系数,然后将这些值相加,将总和带入到sigmoid函数...
阅读全文
摘要:解压文件的时候一直显示can't mkdir ,后来换了root用户解压就可以了删除文件夹:rm -rf xxxmv可以修改名字 vi /etc/profile 修改环境变量修改完环境变量要记得source /etc/profile 使配置的环境变量生效cat ...
阅读全文
摘要:解压文件的时候一直显示can't mkdir ,后来换了root用户解压就可以了删除文件夹:rm -rf xxxmv可以修改名字 vi /etc/profile 修改环境变量修改完环境变量要记得source /etc/profile 使配置的环境变量生效cat ...
阅读全文
摘要:1、加载训练数据集,用于训练分类器#加载数据集,用于训练分类器def loadDataSet(): # 分词后的数据,一共有六个向量 postingList=[['my', 'dog', 'has', 'flea', 'problems', 'help',...
阅读全文
摘要:1、加载训练数据集,用于训练分类器#加载数据集,用于训练分类器def loadDataSet(): # 分词后的数据,一共有六个向量 postingList=[['my', 'dog', 'has', 'flea', 'problems', 'help',...
阅读全文
摘要:str = "thon.exe H:/python_workspace/test/test.py"import re#\\w* : \ + \w + *# ...
阅读全文
摘要:1、决策树的工作原理(1)找到划分数据的特征,作为决策点(2)利用找到的特征对数据进行划分成n个数据子集。(3)如果同一个子集中的数据属于同一类型就不再划分,如果不属于同一类型,继续利用特征进行划分。(4)指导每一个子集的数据属于同一类型停止划分。2、决策树的优点:计...
阅读全文
摘要:1、决策树的工作原理(1)找到划分数据的特征,作为决策点(2)利用找到的特征对数据进行划分成n个数据子集。(3)如果同一个子集中的数据属于同一类型就不再划分,如果不属于同一类型,继续利用特征进行划分。(4)指导每一个子集的数据属于同一类型停止划分。2、决策树的优点:计...
阅读全文
摘要:B=min(A):获得矩阵A每一列的最小值,返回值B为一个行向量,其第i列对应A矩阵第i列的最小值。 C=max(A) :获得矩阵A每一列的最大值,返回值C为一个行向量,其第i列对应A矩阵第i列的最大值。import numpy as npa = np.ar...
阅读全文
摘要:B=min(A):获得矩阵A每一列的最小值,返回值B为一个行向量,其第i列对应A矩阵第i列的最小值。 C=max(A) :获得矩阵A每一列的最大值,返回值C为一个行向量,其第i列对应A矩阵第i列的最大值。import numpy as npa = np.ar...
阅读全文
摘要:import matplotlib.pyplot as plt from numpy import * fig = plt.figure() ax = fig.add_subplot(223) ax.plot(x,y) plt.show() 参数223的意思...
阅读全文
摘要:import matplotlib.pyplot as plt from numpy import * fig = plt.figure() ax = fig.add_subplot(223) ax.plot(x,y) plt.show() 参数223的意思...
阅读全文
摘要:1、创建随机矩阵>>> from numpy import *>>> random.rand(4,4)array([[ 0.1801566 , 0.02580119, 0.02685281, 0.52768083], [ 0.4541100...
阅读全文
摘要:1、创建随机矩阵>>> from numpy import *>>> random.rand(4,4)array([[ 0.1801566 , 0.02580119, 0.02685281, 0.52768083], [ 0.4541100...
阅读全文
摘要:1、切片操作#!/usr/bin/env python# -*- coding: utf-8 -*-# 切片操作names = ('aa','bb','cc','dd','ee');print names[0];print names[2];print na...
阅读全文
摘要:1、切片操作#!/usr/bin/env python# -*- coding: utf-8 -*-# 切片操作names = ('aa','bb','cc','dd','ee');print names[0];print names[2];print na...
阅读全文
摘要:1、复数aComplex = -1.33 + 2.44j;print aComplex;# (-1.33+2.44j)print aComplex.real;print aComplex.imag;# -1.33# 2.44print aComplex.co...
阅读全文
摘要:1、复数aComplex = -1.33 + 2.44j;print aComplex;# (-1.33+2.44j)print aComplex.real;print aComplex.imag;# -1.33# 2.44print aComplex.co...
阅读全文

浙公网安备 33010602011771号