东软实训 -大数据 (第二天知识点总结)

配置权限是

R w x

1 0 1

的用法是转化为二级制。是5

777位三段都是满权限

解压指令:tar -zxvf 文件名   tar  -czvf是压缩

解压jdk并且进行重命名

 

 

放在profile.d

 

 

输入命令差生脚本文件Vi java.sh

Export是把临时变量变为系统变量。

$$是把包含其中的系统变量内容进行引用,然后在改变系统变量的时候调用以前的加上现在需要增加的,再进行覆盖,就不会丢失之前的系统变量

 

 

执行脚本文件修改系统变量

 

 

显示如下则jdk配置成功

 

 

 

 

 

 

yum install 意思是:下载并安装

yum install -y mysql mysql-server 完全安装后结果如下

 

 

启动数据库服务

Service mysqld start

 

 

 设置mysql的用户名密码

 

 

完全关闭防火墙如下操作(前面一句是当时关掉重启会重新打开,第二句是重启后不开启,所以两句都需要输入一遍)

 

 

登录mysql

 

 

Show tables

 

 

Select

 

 

 

 

删除无用用户

 

 

更改用户名通配符

 

 

问题:这里还是连接不上,原因是$不是通配符,应该把它换成%这个。就可以成功连接了

刷新权限

 

 

 

 

Linux配置tomcat

解压下载的tomcat

 

 

进入tomcat文件夹

问题:cd /tomcat进不去,必须输入cd tomcat/才能进入

进入bin开启tomcat

 

 

修改端口号(方便以后不用再IP上输入:8080才能显示tomcat官网)

 

 

找到这里修改为80即可

 

 

对于登录tomcat官网。

可以进行如下配置

conf中的

 

添加彩色的这些话

 

 

重新关闭开启tomcat服务即可

 

 

 

 

 

 

 

 

 

权限分配

重新创建文件夹test

 

 

创建用户组wy

将用户wy放入用户组

 

 

绝对路径查找

 

 

给用户wy设置密码

 

 

更改权限所属

Test归属wy

 

 

权限更改

 

 

 

 

Ssh安装配置过程

 

 

下载安装

 

 

 

安装完成

 

 

输入ssh+IP地址

进行秘钥连接,连接成功如下

 

 

会生成ssh隐藏目录

 

 

 

 

免秘钥登录

通过复制id_rsa.pub文件 为一个authorized_keys

 

 

将一台IProot - .ssh - 中的authorized_keys复制到另外一台中,即可实现

问题(复制过去的时候记得另起一行)

 

 

 

 

 

 

 

 

 

 

 

Hadoop安装配置过程

解压文件

 

进入cd /etc/profile.d/

编写脚本文件 vi hadoop.sh

内容如下

 

 

 

Source hadoop.sh执行脚本文件进行更改系统变

验证hadoop是否配置成功

 

 

问题:在编写hadoop.sh时候,一不小心把PATH变量覆盖了,导致PATH出现错误,ls等指令无法使用。通过别人的初始环境PATH以及指令export PATH=********进行还原,再运行正确的java.sh  以及 hadoop.sh脚本文件完成对PATH的修复

  

技巧:虚拟机提前快照。之后可以进行回复到原先没有错误的情况

 

配置hdfs

 

 

 

Core-site配置

<configuration>

<property>

  <name>fs.defaultFS</name>

  <value>hdfs://192.168.5.121:9000</value>

</property>

<property>

  <name>hadoop.tmp.dir</name>

  <value>/hadoop/tmp</value>

</property>

</configuration>

 

Hdfs-site配置

 

 

<configuration>

<property>

  <name>dfs.namenode.name.dir</name>

  <value>/hadoop/dfs/name</value>

</property>

<property>

  <name>dfs.datanode.data.dir</name>

  <value>/hadoop/dfs/data</value>

</property>

<property>

  <name>dfs.replication</name>

  <value>1</value>

</property>

<property>

  <name>dfs.permissions.enabled</name>

  <value>false</value>

</property>

</configuration>

 

创建三个临时文件

 

 

Namenode格式化

 

 

进入sbin

开启hadoop

 

 

浏览器输入192.168.5.12150070

 

 

Hdfs创建一个文件

 

 

存进一个文件

 

 

 

posted on 2018-07-11 09:05  super大蜗牛  阅读(257)  评论(0编辑  收藏  举报

导航