摘要: Javascript 学习笔记 阅读全文
posted @ 2015-12-08 20:22 虎头工作室 阅读(188) 评论(0) 推荐(0) 编辑
摘要: 最近对操作系统挺有兴趣的,实验了一下!准备找一个虚拟机,之前在xp上使用virtual pc感觉不错,准备在本机上装一下,但是发现居然不支持软盘了!查阅了各种资料,终于找到了解决的办法。1. 下载脚本Scripts.zip 在如下地址:http://blogs.msdn.com/b/virtual_pc_guy/archive/2009/10/01/using-floppy-disks-with-windows-virtual-pc.aspx 也可以自己生成两个脚本文件,代码如下 FloppyDrive.vbs Option Explicit' Define constants for 阅读全文
posted @ 2014-01-18 17:51 虎头工作室 阅读(995) 评论(0) 推荐(0) 编辑
摘要: This script is Deprecated. Instead use start-dfs.sh and start-yarn.shStarting namenodes on [Master132.Hadoop]Master132.Hadoop: starting namenode, logging to /usr/hadoop/logs/hadoop-hadoop-namenode-Master132.Hadoop.outSlave110.Hadoop: /usr/hadoop/sbin/hadoop-daemon.sh: line 69: [: .out: integer expre 阅读全文
posted @ 2014-01-13 16:11 虎头工作室 阅读(731) 评论(0) 推荐(0) 编辑
摘要: 之前都是单节点进行的操作与测试,现在进行真正的多节点系统搭建1. 准备系统与配置 共准备4台机器搭建Hadoop集群。基于CentOS6.2,jdk1.6.0_31,Hadoop2.2.0版本 192.168.1.132 NameNode Master132.Hadoop (Master) 192.168.1.110 DateNode Slave110.Hadoop (Slave) 192.168.1.141 DateNode Slave141.Hadoop (Slave) 192.168.1.131 DateNode Slave131.Hadoop (Slave)... 阅读全文
posted @ 2014-01-10 16:21 虎头工作室 阅读(366) 评论(0) 推荐(0) 编辑
摘要: 上次的程序只是操作文件系统,本次运行一个真正的MapReduce程序。运行的是官方提供的例子程序wordcount,这个例子类似其他程序的hello world。1. 首先确认启动的正常:运行 start-all.sh2. 执行jps命令检查:NameNode,DateNode,SecondaryNameNode,ResourceManager,NodeManager是否已经启动正常。这里我遇到了一个问题,NodeManager没有正常启动。错误信息如下:2014-01-07 13:46:21,442 FATAL org.apache.hadoop.yarn.server.nodemanage 阅读全文
posted @ 2014-01-07 14:24 虎头工作室 阅读(4748) 评论(0) 推荐(0) 编辑
摘要: 根据之前的操作,我们已经可以正常的启动Hadoop了,关于真正的集群我会在之后进行说明。现在我们来看一下第一个程序吧1. 在eclipse上建立一个java项目2. 将 /usr/hadoop/share/hadoop/common/hadoop-common-2.2.0.jar 文件导入到项目中3. 将 /usr/hadoop/share/hadoop/common/lib/commons-logging-1.1.1.jar 文件导入到项目中4. 编写代码如下import java.io.IOException;import org.apache.hadoop.conf.Configurat 阅读全文
posted @ 2013-12-02 16:53 虎头工作室 阅读(451) 评论(0) 推荐(0) 编辑
摘要: 以下是进行单节点Hadoop配置的内容,多节点也类似1. 进行Hadoop的安装 1.1 上文进行了Hadoop的编译,将编译结果目录 hadoop-2.2.0 拷贝为 /usr/hadoop 目录 1.2 编辑/etc/profile 文件,增加如下的内容export HADOOP_PREFIX=/usr/hadoopexport PATH=$PATH:$HADOOP_PREFIX/binexport PATH=$PATH:$HADOOP_PREFIX/sbinexport HADOOP_MAPRED_HOMD=${HADOOP_PREFIX}export HADOOP_COMMON_H.. 阅读全文
posted @ 2013-12-02 16:19 虎头工作室 阅读(418) 评论(0) 推荐(0) 编辑
摘要: 最近在编译protobuf-2.5.0源码的时候发现的错误已经应对方法1. 在源码目录执行 ./configure 命令的时候,发生如下错误 error: C++ preprocessor "/lib/cpp" fails sanity check2. 根据错误的提示,应该是对于c++编译器的相关包没有安装齐全,执行如下的命令解决此问题 yum install glibc-headers yum install gcc-c++3. 再次执行 ./configure 命令,正常进行下一步操作备注: 有人提出,可以执行下面的命令,安装很多基础包,比以上的解决方案更好(个人没有尝 阅读全文
posted @ 2013-11-23 15:05 虎头工作室 阅读(959) 评论(0) 推荐(0) 编辑
摘要: 近期对Hadoop很感兴趣,下面是在CentOS系统上进行编译的分享系统情况如下: 1. CentOS 6.2 64位 2. hadoop-2.2.0 3. jdk 1.6.0_31 4. maven 3.1.0 5. protobuf-2.5.0 6. cmake 2.8.12.1系统中已经安装好了JDK,并正确进行了设置,这里不说明JDK的安装与设置,请自行查阅 第一步:安装maven 1.1 下载文件apache-maven-3.1.0-alpha-1-bin.tar.gz 1.2 执行命令tar zvxf apache-maven-3.1.0-alpha-1-bin.tar... 阅读全文
posted @ 2013-11-21 15:54 虎头工作室 阅读(666) 评论(0) 推荐(0) 编辑
摘要: 在sql server2005中,执行如下命令的问题exec sp_configure 'show advanced options', 1RECONFIGURE;exec sp_configure 'Ole Automation Procedures', 1RECONFIGURE;在执行中显示错误不支持对系统目录进行即席更新。修改为exec sp_configure 'show advanced options', 1RECONFIGURE WITH OVERRIDE;exec sp_configure 'Ole Automation 阅读全文
posted @ 2011-06-24 15:31 虎头工作室 阅读(3188) 评论(0) 推荐(0) 编辑