手動スケジューリングに別れを告げ、Dolphin Scheduler 3.1.x クラスター展開を使用すると、複数のマシンを簡単に管理できるようになります。

ファイル

ハートの1枚目より転載

1 はじめに

Dolphin Scheduling Organ Network のクラスター展開ドキュメントは乱雑に書かれており、インストールプロセス中に操作のために多くの場所にジャンプする必要があるため、その後の作業を容易にするために、最初から最後まで直接実行できるドキュメントをまとめました。デプロイメントとアップグレード、ノードの追加とノードの削減の関連操作。

2. 事前に準備する

2.1. 基本コンポーネント

  • JDK: JDK (1.8+) をダウンロードし、JAVA_HOME 環境変数をインストールして構成し、その下の bin ディレクトリを PATH 環境変数に追加します。環境にすでに存在する場合は、この手順をスキップできます。
  • バイナリ パッケージ: ダウンロード ページで DolphinScheduler バイナリ パッケージをダウンロードします。
  • データベース: PostgreSQL (8.2.15 以降) または MySQL (5.7 以降)。たとえば、MySQL には中央ウェアハウスからダウンロードできる JDBC ドライバー 8 バージョンが必要です。
  • 登録センター: ZooKeeper (3.4.6+)、ダウンロード アドレス。
  • プロセスツリー分析
    • macOS インストール pstree
    • Fedora/Red/Hat/CentOS/Ubuntu/Debian は psmisc をインストールします。

注: DolphinScheduler 自体は Hadoop、Hive、Spark などに依存しませんが、実行するタスクがこれらに依存する必要がある場合は、対応する環境サポートが必要です。

3.アップロード

バイナリ パッケージをアップロードし、特定のディレクトリに抽出します。特定のディレクトリの場所は自分で決定できます。

ディレクトリ名に注意してください。インストール ディレクトリとバイナリ パッケージの解凍ディレクトリは、区別するために異なる名前にする必要があります。

tar -xvf apache-dolphinscheduler-3.1.7-bin.tar.gz
mv apache-dolphinscheduler-3.1.7-bin dolphinscheduler-3.1.7-origin

次の -origin は、これが元のバイナリ パッケージ解凍ファイルであることを示します。後で構成を変更した場合は、ディレクトリ内のファイルを変更して、インストール スクリプトを再実行できます。

4. ユーザー

4.1. ユーザーパスワードの除外と権限の設定

デプロイメント ユーザーを作成し、必ず sudo パスワードなしで構成してください。例として dolphinscheduler ユーザーを作成します。

# 创建用户需使用 root 登录
useradd dolphinscheduler

# 添加密码
echo "dolphinscheduler" | passwd --stdin dolphinscheduler

# 配置 sudo 免密
sed -i '$adolphinscheduler  ALL=(ALL)  NOPASSWD: ALL' /etc/sudoers
sed -i 's/Defaults    requirett/#Defaults    requirett/g' /etc/sudoers

# 修改目录权限,使得部署用户对二进制包解压后的 apache-dolphinscheduler-*-bin 目录有操作权限
chown -R dolphinscheduler:dolphinscheduler apache-dolphinscheduler-*-bin

知らせ:

  • タスク実行サービスは sudo -u {linux-user} を使用してさまざまな Linux ユーザーを切り替え、マルチテナント実行ジョブを実装するため、展開ユーザーには sudo 権限が必要であり、パスワードは必要ありません。初心者が理解できない場合は、この点を一時的に無視しても問題ありません。
  • /etc/sudoers ファイル内に「Defaults requirett」行を見つけた場合は、それもコメントアウトしてください。

4.2. マシンの SSH パスワードなしログインの設定

インストール中にリソースを別のマシンに送信する必要があるため、各マシン間で SSH パスワードなしのログインが必要です。パスワードなしのログインを構成する手順は次のとおりです。

su dolphinscheduler

ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
# 一定要执行下面这个命令,否则免密登录会失败
chmod 600 ~/.ssh/authorized_keys

注: 構成が完了したら、コマンドを実行して、ssh localhostパスワードを入力せずに ssh 経由でログインできれば成功です。

5. ズーキーパーを開始する

クラスター内で Zookeeper を起動するだけです。

6. 構成を変更する

以下の操作はすべて dolphinscheduler ユーザーの下で実行されます。

基本環境の準備が完了したら、マシン環境に合わせて設定ファイルを変更する必要があります。設定ファイルは bin/env ディレクトリにあり、 とinstall_env.shですdolphinscheduler_env.sh

6.1. install_env.sh

install_env.shこのファイルは、DolphinScheduler をどのマシンにインストールするか、および各マシンにどのサービスをインストールするかを構成します。パス内でこのファイルを見つけてbin/env/、以下の手順に従って対応する構成を変更できます。

# ---------------------------------------------------------
# INSTALL MACHINE
# ---------------------------------------------------------
# A comma separated list of machine hostname or IP would be installed DolphinScheduler,
# including master, worker, api, alert. If you want to deploy in pseudo-distributed
# mode, just write a pseudo-distributed hostname
# Example for hostnames: ips="ds1,ds2,ds3,ds4,ds5", Example for IPs: ips="192.168.8.1,192.168.8.2,192.168.8.3,192.168.8.4,192.168.8.5"
# 配置海豚调度器要安装到那些机器上
ips=${ips:-"ds01,ds02,ds03,hadoop02,hadoop03,hadoop04,hadoop05,hadoop06,hadoop07,hadoop08"}

# Port of SSH protocol, default value is 22. For now we only support same port in all `ips` machine
# modify it if you use different ssh port
sshPort=${sshPort:-"22"}

# A comma separated list of machine hostname or IP would be installed Master server, it
# must be a subset of configuration `ips`.
# Example for hostnames: masters="ds1,ds2", Example for IPs: masters="192.168.8.1,192.168.8.2"
# 配置 master 角色要安装到哪些机器上
masters=${masters:-"ds01,ds02,ds03,hadoop04,hadoop05,hadoop06,hadoop07,hadoop08"}

# A comma separated list of machine <hostname>:<workerGroup> or <IP>:<workerGroup>.All hostname or IP must be a
# subset of configuration `ips`, And workerGroup have default value as `default`, but we recommend you declare behind the hosts
# Example for hostnames: workers="ds1:default,ds2:default,ds3:default", Example for IPs: workers="192.168.8.1:default,192.168.8.2:default,192.168.8.3:default"
# 配置 worker 角色要安装到哪些机器上,默认都放到 default 的 worker 分组内,其他分组,可以通过海豚调度器界面进行单独配置
workers=${workers:-"ds01:default,ds02:default,ds03:default,hadoop02:default,hadoop03:default,hadoop04:default,hadoop05:default,hadoop06:default,hadoop07:default,hadoop08:default"}

# A comma separated list of machine hostname or IP would be installed Alert server, it
# must be a subset of configuration `ips`.
# Example for hostname: alertServer="ds3", Example for IP: alertServer="192.168.8.3"
# 配置 alert 角色安装到哪个机器上,配置一台机器即可
alertServer=${alertServer:-"hadoop03"}

# A comma separated list of machine hostname or IP would be installed API server, it
# must be a subset of configuration `ips`.
# Example for hostname: apiServers="ds1", Example for IP: apiServers="192.168.8.1"
# 配置 api 角色安装到哪个机器上,配置一台机器即可
apiServers=${apiServers:-"hadoop04"}

# The directory to install DolphinScheduler for all machine we config above. It will automatically be created by `install.sh` script if not exists.
# Do not set this configuration same as the current path (pwd). Do not add quotes to it if you using related path.
# 配置安装路径,将会在所有海豚集群的机器上安装服务,一定要和上面解压的二进制包目录区分开,最好带上版本号,以方便后续的升级操作。
installPath=${installPath:-"/opt/dolphinscheduler-3.1.5"}

# The user to deploy DolphinScheduler for all machine we config above. For now user must create by yourself before running `install.sh`
# script. The user needs to have sudo privileges and permissions to operate hdfs. If hdfs is enabled than the root directory needs
# to be created by this user
# 部署使用的用户,用上面自己新建的用户即可
deployUser=${deployUser:-"dolphinscheduler"}

# The root of zookeeper, for now DolphinScheduler default registry server is zookeeper.
# 配置注册到 zookeeper znode 名称,如果配置了多个海豚集群,则需要配置不同的名称
zkRoot=${zkRoot:-"/dolphinscheduler"}

6.2. dolphinscheduler_env.sh

bin/env/このファイルはパス内にあります。このファイルは、使用される一部の環境を構成するために使用されます。次の手順に従って、対応する構成を変更します

# JDK 路径,一定要修改
export JAVA_HOME=${JAVA_HOME:-/usr/java/jdk1.8.0_202}

# 数据库类型,支持 mysql、postgresql
export DATABASE=${DATABASE:-mysql}
export SPRING_PROFILES_ACTIVE=${DATABASE}
# 连接 url,主要修改下面的 hostname,最后配置的是东八区
export SPRING_DATASOURCE_URL="jdbc:mysql://hostname:3306/dolphinscheduler?useUnicode=true&characterEncoding=UTF-8&useSSL=false&serverTimezone=Asia/Shanghai"
export SPRING_DATASOURCE_USERNAME=dolphinscheduler
# 如果密码比较复杂,则需要前后使用英文单引号括起来
export SPRING_DATASOURCE_PASSWORD='xxxxxxxxxxxxx'

export SPRING_CACHE_TYPE=${SPRING_CACHE_TYPE:-none}
# 配置各角色 JVM 启动时使用的时区,默认为 -UTC,如果想要完全支持东八区,则设置为 -GMT+8
export SPRING_JACKSON_TIME_ZONE=${SPRING_JACKSON_TIME_ZONE:-GMT+8}
export MASTER_FETCH_COMMAND_NUM=${MASTER_FETCH_COMMAND_NUM:-10}

export REGISTRY_TYPE=${REGISTRY_TYPE:-zookeeper}
# 配置使用的 zookeeper 地址
export REGISTRY_ZOOKEEPER_CONNECT_STRING=${REGISTRY_ZOOKEEPER_CONNECT_STRING:-hadoop01:2181,hadoop02:2181,hadoop03:2181}

# 配置使用到的一些环境变量,按照自己的需要进行配置即可,所有需要的组件,都自己安装
export HADOOP_HOME=${HADOOP_HOME:-/opt/cloudera/parcels/CDH/lib/hadoop}
export HADOOP_CONF_DIR=${HADOOP_CONF_DIR:-/etc/hadoop/conf}
export SPARK_HOME1=${SPARK_HOME1:-/opt/soft/spark1}
export SPARK_HOME2=${SPARK_HOME2:-/opt/spark-3.3.2}
export PYTHON_HOME=${PYTHON_HOME:-/opt/python-3.9.16}
export HIVE_HOME=${HIVE_HOME:-/opt/cloudera/parcels/CDH/lib/hive}
export FLINK_HOME=${FLINK_HOME:-/opt/flink-1.15.3}
export DATAX_HOME=${DATAX_HOME:-/opt/datax}
export SEATUNNEL_HOME=${SEATUNNEL_HOME:-/opt/seatunnel-2.1.3}
export CHUNJUN_HOME=${CHUNJUN_HOME:-/opt/soft/chunjun}

export PATH=$HADOOP_HOME/bin:$SPARK_HOME1/bin:$SPARK_HOME2/bin:$PYTHON_HOME/bin:$JAVA_HOME/bin:$HIVE_HOME/bin:$FLINK_HOME/bin:$DATAX_HOME/bin:$SEATUNNEL_HOME/bin:$CHUNJUN_HOME/bin:$PATH

6.3.共通のプロパティ

独自の Hadoop クラスターからhdfs-site.xml およびファイルをダウンロードし、およびディレクトリに置きます。自分で構築した Apache のネイティブ クラスターの場合は、各コンポーネントの conf ディレクトリから見つけることができます。CDH の場合は、CDH インターフェイスを通じて直接ダウンロードできます。core-site.xmlapi-server/conf/worker-server/conf/

api-server/conf/andディレクトリにあるこのファイルを変更しますworker-server/conf/。このファイルは主に、ドルフィン リソースの HDFS へのアップロードなど、リソースのアップロードに関連するパラメータを設定するために使用されます。次の手順に従って変更するだけです。

# 本地路径,主要用来存放任务运行时的临时文件,要保证用户对该文件具有读写权限,一般保持默认即可,如果后续任务运行报错说是对该目录下的文件没有操作权限,直接将该目录权限修改为 777 即可
data.basedir.path=/tmp/dolphinscheduler

# resource view suffixs
#resource.view.suffixs=txt,log,sh,bat,conf,cfg,py,java,sql,xml,hql,properties,json,yml,yaml,ini,js

# 保存资源的地方,可用值为: HDFS, S3, OSS, NONE
resource.storage.type=HDFS
# 资源上传的基本路径,必须以 /dolphinscheduler 开头,要保证用户对该目录有读写权限
resource.storage.upload.base.path=/dolphinscheduler

# The AWS access key. if resource.storage.type=S3 or use EMR-Task, This configuration is required
resource.aws.access.key.id=minioadmin
# The AWS secret access key. if resource.storage.type=S3 or use EMR-Task, This configuration is required
resource.aws.secret.access.key=minioadmin
# The AWS Region to use. if resource.storage.type=S3 or use EMR-Task, This configuration is required
resource.aws.region=cn-north-1
# The name of the bucket. You need to create them by yourself. Otherwise, the system cannot start. All buckets in Amazon S3 share a single namespace; ensure the bucket is given a unique name.
resource.aws.s3.bucket.name=dolphinscheduler
# You need to set this parameter when private cloud s3. If S3 uses public cloud, you only need to set resource.aws.region or set to the endpoint of a public cloud such as S3.cn-north-1.amazonaws.com.cn
resource.aws.s3.endpoint=http://localhost:9000

# alibaba cloud access key id, required if you set resource.storage.type=OSS
resource.alibaba.cloud.access.key.id=<your-access-key-id>
# alibaba cloud access key secret, required if you set resource.storage.type=OSS
resource.alibaba.cloud.access.key.secret=<your-access-key-secret>
# alibaba cloud region, required if you set resource.storage.type=OSS
resource.alibaba.cloud.region=cn-hangzhou
# oss bucket name, required if you set resource.storage.type=OSS
resource.alibaba.cloud.oss.bucket.name=dolphinscheduler
# oss bucket endpoint, required if you set resource.storage.type=OSS
resource.alibaba.cloud.oss.endpoint=https://oss-cn-hangzhou.aliyuncs.com

# if resource.storage.type=HDFS, the user must have the permission to create directories under the HDFS root path
resource.hdfs.root.user=hdfs
# if resource.storage.type=S3, the value like: s3a://dolphinscheduler; if resource.storage.type=HDFS and namenode HA is enabled, you need to copy core-site.xml and hdfs-site.xml to conf dir
# 
resource.hdfs.fs.defaultFS=hdfs://bigdata:8020

# whether to startup kerberos
hadoop.security.authentication.startup.state=false

# java.security.krb5.conf path
java.security.krb5.conf.path=/opt/krb5.conf

# login user from keytab username
[email protected]

# login user from keytab path
login.user.keytab.path=/opt/hdfs.headless.keytab

# kerberos expire time, the unit is hour
kerberos.expire.time=2


# resourcemanager port, the default value is 8088 if not specified
resource.manager.httpaddress.port=8088
# if resourcemanager HA is enabled, please set the HA IPs; if resourcemanager is single, keep this value empty
yarn.resourcemanager.ha.rm.ids=hadoop02,hadoop03
# if resourcemanager HA is enabled or not use resourcemanager, please keep the default value; If resourcemanager is single, you only need to replace ds1 to actual resourcemanager hostname
yarn.application.status.address=http://ds1:%s/ws/v1/cluster/apps/%s
# job history status url when application number threshold is reached(default 10000, maybe it was set to 1000)
yarn.job.history.status.address=http://hadoop02:19888/ws/v1/history/mapreduce/jobs/%s

# datasource encryption enable
datasource.encryption.enable=false

# datasource encryption salt
datasource.encryption.salt=!@#$%^&*

# data quality option
data-quality.jar.name=dolphinscheduler-data-quality-dev-SNAPSHOT.jar

#data-quality.error.output.path=/tmp/data-quality-error-data

# Network IP gets priority, default inner outer

# Whether hive SQL is executed in the same session
support.hive.oneSession=false

# use sudo or not, if set true, executing user is tenant user and deploy user needs sudo permissions; if set false, executing user is the deploy user and doesn't need sudo permissions
sudo.enable=true
setTaskDirToTenant.enable=false

# network interface preferred like eth0, default: empty
#dolphin.scheduler.network.interface.preferred=

# network IP gets priority, default: inner outer
#dolphin.scheduler.network.priority.strategy=default

# system env path
#dolphinscheduler.env.path=dolphinscheduler_env.sh

# development state
development.state=false

# rpc port
alert.rpc.port=50052

# set path of conda.sh
conda.path=/opt/anaconda3/etc/profile.d/conda.sh

# Task resource limit state
task.resource.limit.state=false

# mlflow task plugin preset repository
ml.mlflow.preset_repository=https://github.com/apache/dolphinscheduler-mlflow
# mlflow task plugin preset repository version
ml.mlflow.preset_repository_version="main"

6.4.アプリケーション.yaml

すべてのロールで /conf/application.yaml ファイルを変更する必要があります。これには、master-server/conf/application.yaml、worker-server/conf/application.yaml、api-server/conf/application.yaml、alert- が含まれます。 server/conf /application.yaml の主な変更はタイムゾーンの設定で、具体的な変更は次のとおりです。

spring:
  banner:
    charset: UTF-8
  jackson:
    # 将时区设置为东八区,只修改这一个地方即可
    time-zone: GMT+8
    date-format: "yyyy-MM-dd HH:mm:ss"

6.5.service.57a50399.jsとservice.57a50399.js.gz

これら 2 つのファイルはapi-server/ui/assets/ui/assets/ディレクトリにあります。

これら 2 つのディレクトリにそれぞれ切り替えて、これら 2 つのファイルをそれぞれ見つけて、vim コマンドで開き、15e3 を検索し、見つけたら 15e5 に変更します。これにより、ページの応答タイムアウトが変更されます。デフォルト値 15e3 は、1500 秒に変更されます。大きなファイルをアップロードする場合、ページのタイムアウトによるエラーは報告されません。

ファイル

7. データベースの初期化

ドライバーの構成

mysql ドライバー (8.x) を、Dolphin スケジューラの各ロール ( api-server/libsalert-server/libsmaster-server/libsworker-server/libs、など) の lib ディレクトリにコピーしますtools/libs

データベースユーザー

root ユーザーとして mysql にログインし、次の SQL を実行します。mysql5 と mysql8 の両方がサポートされています。

create database `dolphinscheduler` character set utf8mb4 collate utf8mb4_general_ci;
create user 'dolphinscheduler'@'%' IDENTIFIED WITH mysql_native_password by 'your_password';
grant ALL PRIVILEGES ON dolphinscheduler.* to 'dolphinscheduler'@'%';
flush privileges;

データベース アップグレード スクリプトを実行します。

bash tools/bin/upgrade-schema.sh

8. インストール

bash ./bin/install.sh

このスクリプトを実行すると、すべてのローカル ファイルが scp を介して上記の構成ファイルで構成されたすべてのマシンにリモートで転送され、対応するマシン上のロールが停止され、すべてのマシン上でロールが開始されます。

最初のインストール後、すべての役割が開始されているため、役割を個別に開始する必要はありません。開始されていない役割がある場合は、対応するマシン上の対応するログを確認して、問題の原因を確認できます。

9. サービスの開始と停止

# 一键停止集群所有服务
bash ./bin/stop-all.sh

# 一键开启集群所有服务
bash ./bin/start-all.sh

# 启停 Master
bash ./bin/dolphinscheduler-daemon.sh stop master-server
bash ./bin/dolphinscheduler-daemon.sh start master-server

# 启停 Worker
bash ./bin/dolphinscheduler-daemon.sh start worker-server
bash ./bin/dolphinscheduler-daemon.sh stop worker-server

# 启停 Api
bash ./bin/dolphinscheduler-daemon.sh start api-server
bash ./bin/dolphinscheduler-daemon.sh stop api-server

# 启停 Alert
bash ./bin/dolphinscheduler-daemon.sh start alert-server
bash ./bin/dolphinscheduler-daemon.sh stop alert-server

これらのスクリプトは、Dolphin Scheduler をインストールしたユーザーによって実行される必要があることに注意することが重要です。そうしないと、権限の問題が発生します。

各サービスには、マイクロサービスのニーズを容易にするためにパス内にファイル<service>/conf/dolphinscheduler_env.shがあります。dolphinscheduler_env.shつまり、対応するサービスで構成し<service>/conf/dolphinscheduler_env.sh<service>/bin/start.shコマンドを使用してさまざまな環境変数に基づいて各サービスを開始できます。ただし、このコマンドを使用して/bin/dolphinscheduler-daemon.sh start <service>サーバーを起動すると、ファイルがbin/env/dolphinscheduler_env.sh上書きされて<service>/conf/dolphinscheduler_env.shからサービスが開始されます。これは、ユーザーが構成を変更するコストを削減するために行われます。

10. 拡張

10.1. 標準的なアプローチ

上記の手順を参照して、次の手順に進みます。

  1. 新しいノード
    1. JDKをインストールして設定します。
    2. 新しい Dolphin ユーザー (Linux ユーザー) を作成し、パスワードなしのログインや権限などを設定します。
  2. Dolphin スケジューラをインストールする前にバイナリ インストール パッケージが抽出されたマシン上。
    1. Dolphinをインストールしたユーザーとしてログインします。
    2. Dolphin Scheduler の以前のインストールに切り替える場合は、バイナリ インストール パッケージを解凍し、構成ファイルを変更します。bin/env/install_env.sh構成ファイルで、新しいノードにデプロイする必要があるロールを変更します。
    3. インストールするファイルを実行する/bin/install.shと、スクリプトはbin/env/install_env.shファイル内の構成に従ってディレクトリ全体をすべてのマシンに再配置し、scpすべてのマシン上のロールを停止してから、すべてのロールを再度開始します。

この方法の欠点: Dolphin スケジューラーに分単位のタスクが多数ある場合、または flink や Spark などのリアルタイム タスクがある場合、この操作ではすべてのロールを停止してから開始するため、一定の時間がかかります。この期間、これらのタスクはクラスター全体の再起動により異常停止するか、正常にスケジュールされない可能性があります。ただし、Dolphin スケジューラー自体が自動フォールト トレランスやディザスター リカバリーなどの機能を実装しているため、これを実行して最終的にすべてのタスクが正常に実行されるかどうかを観察できます。

10.2. 簡単な方法

上記の手順を参照して、次の手順に進みます。

  1. 新しいノード
    1. JDKをインストールして設定します。
    2. 新しい Dolphin ユーザー (Linux ユーザー) を作成し、パスワードなしのログインや権限などを設定します。
  2. Dolphin スケジューラをインストールする前にバイナリ インストール パッケージが抽出されたマシン上。
    1. Dolphinをインストールしたユーザーとしてログインします。
    2. 以前に構成を変更したディレクトリ全体を直接圧縮して、新しいノードに転送します。
  3. 新しいノード
    1. 新しいノードでファイルを解凍し、bin/env/install_env.sh以前の構成ファイルで構成されたインストール ディレクトリに名前を変更します。
    2. Dolphinをインストールしたユーザーとしてログインします。
    3. 新しいノードにデプロイする必要があるロールを開始します。具体的なスクリプトの場所は次のとおりです。/bin/dolphinscheduler-daemon.sh起動コマンドは次のとおりです。
./dolphinscheduler-daemon.sh start master-server
./dolphinscheduler-daemon.sh start worker-server
  1. Dolphin Scheduler インターフェイスにログインし、「監視センター」で、対応するロールが新しいノードで開始されているかどうかを確認します。

11.シュリンク

  1. オフラインにする必要があるマシン上で、/bin/dolphinscheduler-daemon.shスクリプトを使用してマシン上のすべてのロールを停止します。停止コマンドは次のとおりです。
./dolphinscheduler-daemon.sh stop worker-server
  1. Dolphin Scheduler インターフェイスにログインし、マシン上で停止していたキャラクターが消えたかどうかを「監視センター」で観察します。
  2. 以前に Dolphin Scheduler をインストールしたときにバイナリ インストール パッケージが解凍されたマシン上
  3. Dolphinをインストールしたユーザーとしてログインします。
  4. 構成ファイルを変更します。bin/env/install_env.shこの構成ファイルで、オフラインの役割に対応するマシンを削除します。

12. アップグレード

上記の手順に従って、段階的に操作を行ってください。すでに実行されている操作については、再度操作を行う必要はありません。具体的な手順をいくつか示します。

  1. 新しいバイナリ パッケージをアップロードします。
  2. 旧バージョンのインストールディレクトリとは別のディレクトリに解凍するか、名前を変更してください。
  3. 構成ファイルを変更する比較的簡単な方法は、上記の手順に関係するすべての構成ファイルを、以前にインストールしたディレクトリから新しいバージョンのディレクトリにコピーして置き換えることです。
  4. 他のノードにデプロイされたすべてのコンポーネントを圧縮し、解凍して新しいノードの対応する場所に置きます。コピーする必要がある特定のコンポーネントについては、dolphinscheduler_env.sh ファイル内の設定を表示できます。
  5. ドライバーを構成するには、「データベースの初期化」の手順を参照してください。
  6. 以前のクラスターを停止します。
  7. データベース全体をバックアップします。
  8. データベースのアップグレード スクリプトを実行し、「データベースの初期化」の手順を参照してください。
  9. インストールスクリプトの実行については、「インストール」を参照してください。
  10. アップグレードが完了したら、インターフェイスにログインし、「監視センター」をチェックして、すべての役割が正常に開始されたかどうかを確認します。

転載する場合は出典を明記してください。みんなでテクノロジーについて議論することを歓迎します。何か問題がある場合は、一緒に議論してください。

元のリンク: https://blog.csdn.net/u012443641/article/details/131419391

この記事はBeluga Open Source Technologyによって公開されています。

ライナスは、カーネル開発者がタブをスペースに置き換えることを阻止するために自ら問題を解決しました。 彼の父親はコードを書くことができる数少ないリーダーの 1 人であり、次男はオープンソース テクノロジー部門のディレクターであり、末息子は中核です。ファー ウェイ: 一般的に使用されている 5,000 のモバイル アプリケーションを変換するのに 1 年かかった Java はサードパーティの脆弱性が最も発生しやすい言語です。Hongmeng の父: オープンソースの Honmeng は唯一のアーキテクチャ上の革新です。中国の基本ソフトウェア分野で 馬化騰氏と周宏毅氏が握手「恨みを晴らす」 元マイクロソフト開発者:Windows 11のパフォーマンスは「ばかばかしいほど悪い」 老祥基がオープンソースであるのはコードではないが、その背後にある理由はGoogle 大規模な組織再編を 発表
{{名前}}
{{名前}}

おすすめ

転載: my.oschina.net/dailidong/blog/11054375