05 HDFS Java API应用实例

一、在Ubuntu系统中安装和配置idea

去官网地址下载 https://www.jetbrains.com/idea/download/#section=linux

 

 

选择这个版本下载

把Idea放到你想要放的位置,如:

sudo cp ideaIU-2021.2.3.tar.gz /usr/local/

解压(注意: 不同版本下载下来的压缩包名字是不一样的, 即ideaIU-2021.2.3.tar.gz不一定都一样)

sudo tar -zxvf ideaIU-2021.2.3.tar.gz

给解压下来的新文件夹改名字(注意,你解压出来的文件夹的名字不一定是idea2021.2.3)

mv idea-2021.2.3 idea2021

移动文件夹, 这里我移动到了我的桌面

mv idea2021 /home/hadoop/桌面

赋权限

sudo chmod 777 idea2021 -R

去到自己的idea安装目录下面启动idea

注意: idea是一门付费软件,笔者不方便提供永久使用的方法,大家可以自己去找激活码来使用 (有付费能力的当我没说哈)

./idea2021/bin/idea.sh

 

二、利用hadoop 的java api,向HDFS写一个文件。

 像创建一个文件夹用于存放idea创建的项目,这是个人习惯,也可以不创建

sudo mkdir /usr/local/workspace

修改权限

sudo chmod 777 /usr/local/workspace -R

创建项目

 

 

 

 

创建项目成功后,需要添加依赖

 我已经添加过了的,所以有很多jar包, hdfs下的java api jar包都在这四个地方

(1)“/usr/local/hadoop/share/hadoop/common”目录下的所有JAR包,注意不包括目录

(2)“/usr/local/hadoop/share/hadoop/common/lib”目录下的所有JAR包;

(3)“/usr/local/hadoop/share/hadoop/hdfs”目录下的所有JAR包,注意不包括目录;

(4)“/usr/local/hadoop/share/hadoop/hdfs/lib”目录下的所有JAR包。

自己手动添加就行了,如下

接下来在项目里面创建一个类WriteFile,代码如下

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.Path;

public class WriteFile {
public static void main(String[] args) {
try {
Configuration conf = new Configuration();
conf.set("fs.defaultFS","hdfs://localhost:9000");
conf.set("fs.hdfs.impl","org.apache.hadoop.hdfs.DistributedFileSystem");
FileSystem fs = FileSystem.get(conf);
byte[] buff = "201906110074lzh".getBytes(); // 要写入的内容
String filename = "file1.txt"; //要写入的文件名
FSDataOutputStream os = fs.create(new Path(filename));
os.write(buff,0,buff.length);
System.out.println("Create:"+ filename);
os.close();
fs.close();
} catch (Exception e) {
e.printStackTrace();
}
}
}

启动hdfs

start-dfs.sh

查看当前hdfs中写入的文件

hdfs dfs -ls

启动完hdfs之后回到idea运行ReadFile这个类

再次查看

hdfs dfs -ls

 可以看到多了一个叫myInfo.txt的文件,代表WriteFile这个Java类写入成功

 

三、从HDFS读取一个文件的内容。

同样在idea创建一个类ReadFile,代码如下(注意代码中的文件路径需要和你WriteFile里面定义的文件路径一样):

import java.io.BufferedReader;
        import java.io.InputStreamReader;
 
        import org.apache.hadoop.conf.Configuration;
        import org.apache.hadoop.fs.FileSystem;
        import org.apache.hadoop.fs.Path;
        import org.apache.hadoop.fs.FSDataInputStream;
 
        public class ReadFile {
                public static void main(String[] args) {
                        try {
                                Configuration conf = new Configuration();
                                conf.set("fs.defaultFS","hdfs://localhost:9000");
                                conf.set("fs.hdfs.impl","org.apache.hadoop.hdfs.DistributedFileSystem");
                                FileSystem fs = FileSystem.get(conf);
                                Path file = new Path("file1.txt");
                                FSDataInputStream getIt = fs.open(file);
                                BufferedReader d = new BufferedReader(new InputStreamReader(getIt));
                                String content = d.readLine(); //读取文件一行
                                System.out.println(content);
                                d.close(); //关闭文件
                                fs.close(); //关闭hdfs
                        } catch (Exception e) {
                                e.printStackTrace();
                        }
                }
        }

运行这个类, 结果如下

可以看到输出内容为WriteFile中写入的内容

最后停止hdfs

stop-dfs.sh

到此,本次实验结束

posted @ 2021-10-31 02:58  少郎  阅读(132)  评论(0)    收藏  举报