- 帆软商业智能解决方案
- 滴普科技数据智能平台解决方案
- 端边云车联网Serverless数据湖解决方案
- 华为云通用数据使能解决方案实践
- 天眼查商业查询解决方案实践
- 快速构建高可用TiDB集群
- 快速构建高可用Flink集群
- 华为云政务场景数据使能解决方案
- 数鑫科技领域数据空间解决方案
- 普元元数据资产管理解决方案
- 驾驶行为分析
- 软通动力数据中台及数据治理服务解决方案实践
- 中软国际数据治理专业服务解决方案实践
- 永洪商业智能解决方案
- 基于OBS配置大数据存算分离集群
- 翼海云峰大数据服务解决方案
- 观远商业智能数据分析解决方案
- 八六三智能数据平台解决方案
- 文档下载
- 通用参考
链接复制成功!
Flink部署
flink1.12 jar下载
cd /opt
wget https://archive.apache.org/dist/flink/flink-1.12.0/flink-1.12.0-bin-scala_2.11.tgz
解压
tar -zxvf flink-1.12.0-bin-scala_2.11.tgz
修改配置文件
vim conf/flink-conf.yaml
把值修改成以下内容
cluster2-hadoop01-tst-daas-deepexi:8020只是本案例的,具体替换成集群Namenode端口
state.backend: rocksdb
state.checkpoints.dir: hdfs://cluster2-hadoop01-tst-daas-deepexi:8020/daas/flink/checkpoints/
state.savepoints.dir: hdfs://cluster2-hadoop01-tst-daas-deepexi:8020/daas/flink/savepoints/
state.backend.incremental: true
state.checkpoints.num-retained: 3
jobmanager.archive.fs.dir: hdfs://cluster2-hadoop01-tst-daas-deepexi:8020/daas/flink/flink-jobs/
historyserver.web.address: cluster2-hadoop01-tst-daas-deepexi
historyserver.web.port: 8082
historyserver.archive.fs.dir: hdfs://cluster2-hadoop01-tst-daas-deepexi:8020/daas/flink/flink-jobs/
修改环境变量
vim /etc/profile export FLINK_HOME=/opt/flink export PATH=$PATH:$FLINK_HOME/bin
分发服务器
把修改好的 flink文件 分发到集群所有机子
测试是否成功
flink run -m yarn-cluster /opt/flink/examples/batch/WordCount.jar