Pasos de operación de DolphinScheduler

1) Inicie DolphinScheduler

2) Inicia sesión como usuario normal

3) Cargue los scripts necesarios para el flujo de trabajo en el centro de recursos de DolphinScheduler.

1) Cree una carpeta
2) Cargue los scripts necesarios para el flujo de trabajo: cargue todos los scripts necesarios para el flujo de trabajo en la ruta de scripts del centro de recursos

4) Distribuya los componentes de los que depende el script al nodo WorkerServer de DolphinScheduler.

5) Configurar el entorno operativo

(1) Cambie al usuario administrador y cree un entorno bajo administración del entorno
(2) Agregue el siguiente contenido a la configuración del entorno

export HADOOP_HOME=/opt/data/hadoop-3.1.3
export HADOOP_CONF_DIR=/opt/data/hadoop-3.1.3/etc/hadoop
export SPARK_HOME=/opt/data/spark
export SPARK_HOME2=/opt/soft/spark2
export PYTHON_HOME=/opt/soft/python
export JAVA_HOME=/opt/data/jdk1.8.0_212
export HIVE_HOME=/opt/data/hive
export FLINK_HOME=/opt/soft/flink
export DATAX_HOME=/opt/data/datax
export PATH=$HADOOP_HOME/bin:$SPARK_HOME1/bin:$SPARK_HOME2/bin:$PYTHON_HOME:$JAVA_HOME/bin:$HIVE_HOME/bin:$FLINK_HOME/bin:$DATAX_HOME/bin:$PATH  

6) Crear flujo de trabajo

(1) Cree un flujo de trabajo en el proyecto GMALL
(2) La configuración de cada nodo de tarea es la siguiente

7) Flujo de trabajo en línea

8) Ejecutar flujo de trabajo

Supongo que te gusta

Origin blog.csdn.net/Wxh_bai/article/details/130253866
Recomendado
Clasificación