Flink运行环境_Standalone

Flink运行环境_Standalone

只使用Flink自身节点运行的集群模式,也就是我们所谓的(Standalone)模式,也叫做独立集群模式。

1. Flink独立集群部署
1. 解压缩文件

将flink-1.12.2文件上传到指定目录并解压。

2. 修改配置文件
  • 进入解压缩的路径的conf目录,修改flink-conf.yaml

    jobmanager.rpc.address: hadoop01
    
  • 修改works文件,添加work节点

    hadoop01
    hadoop02
    hadoop03
    
  • 将flink分发到集群的每台机器中

    scp flink-1.12.2 hadoop02:/opt/apps/
    scp flink-1.12.2 hadoop03:/opt/apps/
    
3. 启动集群
  • 启动集群

    bin/start-cluster.sh
    
  • 查看Web UI界面

2. Flink独立高可用集群部署
1. 解压缩文件

将flink-1.12.2文件上传到指定目录并解压。

2. 修改配置文件
  • 进入解压缩的路径的conf目录,修改flink-conf.yaml

    jobmanager.rpc.address: hadoop01
    # 每个task可用的slot
    taskmanager.numberOfTaskSlots: 3
    
    high-availability: zookeeper
    high-availability.storageDir: hdfs://supercluster/flink/standalone/ha/
    high-availability.zookeeper.quorum: hadoop01:2181,hadoop02:2181,hadoop03:2181
    high-availability.zookeeper.path.root: /flink-standalone
    high-availability.cluster-id: /flink-standalone-ha
    
  • 修改works文件,添加work节点

    hadoop01
    hadoop02
    hadoop03
    
  • 修改masters文件,添加高可用

    hadoop01:8081
    hadoop02:8082
    
  • 将flink分发到集群的每台机器中

    scp flink-1.12.2 hadoop02:/opt/apps/
    scp flink-1.12.2 hadoop03:/opt/apps/
    
  • 修改每台机器的环境变量

    export HADOOP_CLASSPATH=`hadoop classpath`
    
3. 启动集群
  • 启动zookeeper和HDFS集群

  • 启动Flink集群

    bin/start-cluster.sh
    
  • 使用zkCli查看谁是leader·

    get /flink-standalone/flink-standalone-ha/leader/rest_server_lock
    

  • 查看Web UI界面

    从Web UI上无法区分谁是leader,都可以提交作业。

3. 提交作业
bin/flink run \
-d \
-m hadoop02:8081 \
-c com.yankee.day01.Flink03_WordCount_UnBounded_Java wordcount.jar

4. Web UI查看作业

posted @ 2021-06-07 16:02  Yanko24  阅读(163)  评论(0)    收藏  举报