flink安装指南

standalone模式

1.下载flink压缩包

点击下载:flink1.7.2

2.上传到机器

自己上传
在这里插入图片描述

3.解压

tar -zxvf flink-1.7.2-bin-hadoop27-scala_2.11.tgz -C /opt/

4.配置环境变量

vim /etc/profile
# 写入自己flink解压路径等
export FLINK_HOME=/opt/flink-1.7.2/
export PATH=${
    
    FLINK_HOME}/bin:$PATH

保存退出,刷新环境变量

source /etc/profile

5.修改 ./conf/flink-conf.yaml 文件

cd /opt/flink-1.7.2/conf
vim flink-conf.yaml

在这里插入图片描述
在这里插入图片描述
配置savepoint路径,可以本地路径或hdfs路径
在这里插入图片描述

6.修改 /conf/slave文件

vim slave

多节点,就指定多个
在这里插入图片描述

7.启动测试查看

start-cluster.sh

在这里插入图片描述
会启动两个服务:
在这里插入图片描述
去flink页面看一下吧:
http://192.168.8.120自己的ip:8081/
在这里插入图片描述

Yarn模式

以Yarn模式部署Flink任务时,要求Flink是有Hadoop支持的版本,Hadoop环境需要保证版本在2.2以上,并且集群中安装有HDFS服务。
1)启动hadoop集群(略)
2)启动yarn-session

yarn-session.sh -n 2 -s 2 -jm 1024 -tm 1024 -nm test -d

参数解释:
-n(–container):TaskManager的数量。
-s(–slots): 每个TaskManager的slot数量,默认一个slot一个core,默认每个taskmanager的slot的个数为1,有时可以多一些taskmanager,做冗余。
-jm:JobManager的内存(单位MB)。
-tm:每个taskmanager的内存(单位MB)。
-nm:yarn 的appName(现在yarn的ui上的名字)。
-d:后台执行。
在这里插入图片描述
在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/weixin_38620636/article/details/105184174
今日推荐