posted @ 2015-12-08 20:22
虎头工作室
阅读(197)
推荐(0)
摘要:
最近对操作系统挺有兴趣的,实验了一下!准备找一个虚拟机,之前在xp上使用virtual pc感觉不错,准备在本机上装一下,但是发现居然不支持软盘了!查阅了各种资料,终于找到了解决的办法。1. 下载脚本Scripts.zip 在如下地址:http://blogs.msdn.com/b/virtual_pc_guy/archive/2009/10/01/using-floppy-disks-with-windows-virtual-pc.aspx 也可以自己生成两个脚本文件,代码如下 FloppyDrive.vbs Option Explicit' Define constants for
阅读全文
posted @ 2014-01-18 17:51
虎头工作室
阅读(1022)
推荐(0)
摘要:
This script is Deprecated. Instead use start-dfs.sh and start-yarn.shStarting namenodes on [Master132.Hadoop]Master132.Hadoop: starting namenode, logging to /usr/hadoop/logs/hadoop-hadoop-namenode-Master132.Hadoop.outSlave110.Hadoop: /usr/hadoop/sbin/hadoop-daemon.sh: line 69: [: .out: integer expre
阅读全文
posted @ 2014-01-13 16:11
虎头工作室
阅读(739)
推荐(0)
摘要:
之前都是单节点进行的操作与测试,现在进行真正的多节点系统搭建1. 准备系统与配置 共准备4台机器搭建Hadoop集群。基于CentOS6.2,jdk1.6.0_31,Hadoop2.2.0版本 192.168.1.132 NameNode Master132.Hadoop (Master) 192.168.1.110 DateNode Slave110.Hadoop (Slave) 192.168.1.141 DateNode Slave141.Hadoop (Slave) 192.168.1.131 DateNode Slave131.Hadoop (Slave)...
阅读全文
posted @ 2014-01-10 16:21
虎头工作室
阅读(375)
推荐(0)
摘要:
上次的程序只是操作文件系统,本次运行一个真正的MapReduce程序。运行的是官方提供的例子程序wordcount,这个例子类似其他程序的hello world。1. 首先确认启动的正常:运行 start-all.sh2. 执行jps命令检查:NameNode,DateNode,SecondaryNameNode,ResourceManager,NodeManager是否已经启动正常。这里我遇到了一个问题,NodeManager没有正常启动。错误信息如下:2014-01-07 13:46:21,442 FATAL org.apache.hadoop.yarn.server.nodemanage
阅读全文
posted @ 2014-01-07 14:24
虎头工作室
阅读(4759)
推荐(0)
摘要:
根据之前的操作,我们已经可以正常的启动Hadoop了,关于真正的集群我会在之后进行说明。现在我们来看一下第一个程序吧1. 在eclipse上建立一个java项目2. 将 /usr/hadoop/share/hadoop/common/hadoop-common-2.2.0.jar 文件导入到项目中3. 将 /usr/hadoop/share/hadoop/common/lib/commons-logging-1.1.1.jar 文件导入到项目中4. 编写代码如下import java.io.IOException;import org.apache.hadoop.conf.Configurat
阅读全文
posted @ 2013-12-02 16:53
虎头工作室
阅读(457)
推荐(0)
摘要:
以下是进行单节点Hadoop配置的内容,多节点也类似1. 进行Hadoop的安装 1.1 上文进行了Hadoop的编译,将编译结果目录 hadoop-2.2.0 拷贝为 /usr/hadoop 目录 1.2 编辑/etc/profile 文件,增加如下的内容export HADOOP_PREFIX=/usr/hadoopexport PATH=$PATH:$HADOOP_PREFIX/binexport PATH=$PATH:$HADOOP_PREFIX/sbinexport HADOOP_MAPRED_HOMD=${HADOOP_PREFIX}export HADOOP_COMMON_H..
阅读全文
posted @ 2013-12-02 16:19
虎头工作室
阅读(428)
推荐(0)
摘要:
最近在编译protobuf-2.5.0源码的时候发现的错误已经应对方法1. 在源码目录执行 ./configure 命令的时候,发生如下错误 error: C++ preprocessor "/lib/cpp" fails sanity check2. 根据错误的提示,应该是对于c++编译器的相关包没有安装齐全,执行如下的命令解决此问题 yum install glibc-headers yum install gcc-c++3. 再次执行 ./configure 命令,正常进行下一步操作备注: 有人提出,可以执行下面的命令,安装很多基础包,比以上的解决方案更好(个人没有尝
阅读全文
posted @ 2013-11-23 15:05
虎头工作室
阅读(1008)
推荐(0)
摘要:
近期对Hadoop很感兴趣,下面是在CentOS系统上进行编译的分享系统情况如下: 1. CentOS 6.2 64位 2. hadoop-2.2.0 3. jdk 1.6.0_31 4. maven 3.1.0 5. protobuf-2.5.0 6. cmake 2.8.12.1系统中已经安装好了JDK,并正确进行了设置,这里不说明JDK的安装与设置,请自行查阅 第一步:安装maven 1.1 下载文件apache-maven-3.1.0-alpha-1-bin.tar.gz 1.2 执行命令tar zvxf apache-maven-3.1.0-alpha-1-bin.tar...
阅读全文
posted @ 2013-11-21 15:54
虎头工作室
阅读(672)
推荐(0)
摘要:
在sql server2005中,执行如下命令的问题exec sp_configure 'show advanced options', 1RECONFIGURE;exec sp_configure 'Ole Automation Procedures', 1RECONFIGURE;在执行中显示错误不支持对系统目录进行即席更新。修改为exec sp_configure 'show advanced options', 1RECONFIGURE WITH OVERRIDE;exec sp_configure 'Ole Automation
阅读全文
posted @ 2011-06-24 15:31
虎头工作室
阅读(3406)
推荐(0)