Anfänger stellen Ambari bereit und installieren Hadoop-bezogene Komponenten über Ambari

Inhaltsverzeichnis

1. Vorbereitung

1.2 Erstkonfiguration

1.2.1Stellen Sie den Hostnamen ein

1.2.2HOSTS-Datei

1.2.3 Schalten Sie die Firewall und Selinux aus

1.2.4 Passwortfreie Konfiguration (auch für eine einzelne Maschine erforderlich)

1.2.5 Yum-Quelle in Ali-Quelle ändern

1.2.6 Konfigurieren Sie JAVA-Umgebungsvariablen (wenn die Java-Umgebung nicht installiert ist, müssen Sie sie zuerst installieren)

​​​​​1.2.7 NTP-Uhrsynchronisation

1.2.8 Installieren Sie den httpd-Dienst

​​​​​1.2.9 Installieren Sie MySQL und erstellen Sie die Bibliothek

2. Stellen Sie Ambari bereit

2.1 Paket herunterladen

2.2 Lokale Quelle konfigurieren

2.3 Ambari installieren und starten

 3. Installieren Sie Ihre eigenen Komponenten über Ambari

4. Elk über Ambrai installieren

4.1 Vorbereitungsarbeiten

4.1.1 Laden Sie das entsprechende Installationspaket herunter

4.1.2 Laden Sie die dekomprimierte Kopie hoch

4.2 Installation

5. Während der Installation und Bereitstellung aufgetretene Probleme

5.1 Fehler: Clienttransport mit JDBC-URI konnte nicht geöffnet werden

5.2 Fehler beim Starten des Hive-Dienstes

5.3 Probleme mit der Elasticsearch-Benutzernamengruppe

5.4 Elasticsearch kann format_hdp_stack_version nicht importieren

5.5 Kibana kann format_hdp_stack_version nicht importieren

5.6 Kibana kann format_hdp_stack_version nicht importieren

5.7 Hostname wurde im Konfigurationswörterbuch nicht gefunden

5.8 Master und Slave stoppen nach dem Start

5.9 Das übergeordnete Verzeichnis /opt/elasticsearch/master/config existiert nicht


 

1. Vorbereitung

1.1 Beschreibung der Umgebungsversion

Bernstein: 2.7.1.0-169

Hdp: 3.0.1.0-187

Centos: 3.10.0-123.el7.x86_64

IP:192.168.31.139

Da es nur eine virtuelle Maschine gibt, befinden sich alle im Einzelknotenmodus.

1.2 Erstkonfiguration

1.2.1Stellen Sie den Hostnamen ein

echo master >> /etc/hostname

1.2.2 HOSTS-Datei

cat > /etc/hosts <<EOF

192.168.31.139 Meister

EOF

1.2.3 Schalten Sie die Firewall und Selinux aus

# Schließen Sie die Firewall

systemctl stoppt firewalld.service

systemctl deaktiviert firewalld.service

# Status anzeigen

firewall-cmd --state

# Selinux schließen

setenforce 0

sed -i 's/SELINUX=*/SELINUX=disabled/g' /etc/sysconfig/selinux

sysctl -p /etc/sysconfig/selinux

1.2.4 Passwortfreie Konfiguration (auch für eine einzelne Maschine erforderlich)

Führen Sie den folgenden Befehl aus :

1)# ssh-keygen -t rsa

Drücken Sie bis zum Ende die Eingabetaste . Zwei Dateien, id_rsa und id_rsa.pub, werden im Verzeichnis /root/.ssh/ generiert. Ersteres ist der private Schlüssel und letzteres ist der öffentliche Schlüssel.

2)# cat /root/.ssh/id_rsa.pub >> /root/.ssh/authorized_keys

1.2.5 Yum-Quelle in Alibaba-Quelle ändern

  1. Sichern Sie zuerst

mv /etc/yum.repos.d/CentOS-Base.repo /etc/yum.repos.d/CentOS-Base.repo_bak

  1. Laden Sie die Repo-Quelle herunter

wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo

​​​​​​1.2.6 JAVA-Umgebungsvariablen konfigurieren (wenn die Java-Umgebung nicht installiert ist, müssen Sie sie zuerst installieren)

Hinweis: Standardmäßig gibt es nur eine JRE-Umgebung und keine JDK-Entwicklungsumgebung.

Sehen Sie sich die Standardbetriebsumgebung jre von Linux7 an

# ls -lrt /etc/alternatives/java

Fügen Sie die folgende Konfiguration zu .bash_profile im Stammverzeichnis hinzu (java-1.8.0-openjdk-1.8.0.362.b08-1.el7_9.x86_64 ist die integrierte Java-Version):

# JDK-Konfiguration

export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.362.b08-1.el7_9.x86_64

export JRE_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.362.b08-1.el7_9.x86_64/jre

export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH:$HOME/bin

Laden Sie dann die Umgebungsvariablen

Quelle .bash_profile

​​​​​1.2.7 NTP-Uhrsynchronisation

#Installieren Sie den Befehl „ntpdate“.

# yum install ntpdate -y

#Mit der Netzwerkzeit synchronisieren

# ntpdate cn.pool.ntp.org

#Machen Sie die Zeitsynchronisierung zu einer geplanten Aufgabe

# crontab -e

* */1 * * * /usr/sbin/ntpdate cn.pool.ntp.org

#Starten Sie den Crond-Dienst neu

#service crond neu starten

​​​​​​​1.2.8 Installieren Sie den httpd- Dienst

Laden Sie das httpd-Paket und die abhängigen Pakete herunter:

Link: https://pan.baidu.com/s/1roRtXBkmfM2WOoLcoDfXAQ

Extraktionscode: q4my

Führen Sie den folgenden Befehl aus und folgen Sie dem RPM-Paket

rpm -ivh XXX.rpm

Start-up:

#systemctl start httpd.service
startet beim Booten:

#systemctl aktiviert httpd.service

​​​​​1.2.9 Installieren Sie MySQL und erstellen Sie die Bibliothek

1) installieren

Wählen Sie die herunterzuladende Version über https://mariadb.org/mariadb/all-releases aus

Befolgen Sie die Anweisungen, um die Yum-Quellinformationsdatei
#vi /etc/yum.repos.d/MariaDB.repo zu erstellen

[mariadb]

Name = MariaDB

baseurl = https://mirrors.aliyun.com/mariadb/yum/10.3/centos7-amd64

gpgkey=https://mirrors.aliyun.com/mariadb/yum/RPM-GPG-KEY-MariaDB

gpgcheck=1

# yum install -y MariaDB-Server MariaDB-Client

Starten Sie mariadb
systemctl start mariadb
und stellen Sie es so ein, dass es beim Booten automatisch startet.
systemctl enable mariadb

2) Erstellen Sie die Ambari- und Hive-Bibliotheken

Datenbank erstellen Ambari-Zeichensatz utf8;  

ERSTELLEN SIE BENUTZER 'ambari'@'%'IDENTIFIED BY ' XXXXX ' ;

GEWÄHREN SIE ALLE PRIVILEGIEN FÜR *.* TO 'ambari'@'%' IDENTIFIED BY ' XXXXX ' ;

FLUSH-PRIVILEGIEN;

Datenbank-Hive-Zeichensatz erstellen utf8;  

ERSTELLEN SIE DEN BENUTZER 'hive'@'%'IDENTIFIED BY ' XXXXX ' ;

GEWÄHREN SIE ALLE PRIVILEGIEN FÜR *.* TO 'hive'@'%' IDENTIFIED BY  ' XXXXX ' ;

3) Laden Sie das JDBC-Treiberpaket herunter

Die zugehörigen JAR-Dateien von mysqld können von MySQL::Download MySQL Connector/J (Archivierte Versionen) heruntergeladen und unter /usr/share/java abgelegt werden.

2. Stellen Sie Ambari bereit

2.1 Paket herunterladen

Laden Sie die Ambari HDP-, HDP-UTILS- und HDP-GPL-Quellpakete herunter

# mkdir -p /var/www/html/ambari
将ambari 电影的包解历到var/www/html/ambari下
# tar -zxvf ambari-2.7.1.0-centos7.tar.gz -C /var/www/ html /ambari/
# unzip HDP.zip -C /var/www/html/ambari/
# tar -zxvf HDP-GPL-3.0.1.0-centos7-gpl.tar.gz -C /var/www/html/ambari/
# tar -zxvf HDP-UTILS-1.1.0.22-centos7.tar.gz -C /var/www/html/ambari/

Nachdem der httpd-Dienst gestartet wurde, führen Sie den Befehl „curl http://192.168.31.139:8000/ambari/“ aus. Die folgende Rückgabe zeigt an, dass der httpd-Dienst normal ist.

2.2 Lokale Quelle konfigurieren

cd /etc/yum.repos.d/ verwandte Repo-Dateien konfigurieren

[root@master yum.repos.d]# cat hdp.gpl.repo

#VERSION_NUMBER=3.0.1.0-187

[HDP-GPL-3.0.1.0]

Name=HDP-GPL-Version – HDP-GPL-3.0.1.0

baseurl=http://192.168.31.139:8000/ambari/HDP-GPL/centos7/3.0.1.0-187/

gpgcheck=1

gpgkey=http://192.168.31.139:8000/ambari/HDP-GPL/centos7/3.0.1.0-187/RPM-GPG-KEY/RPM-GPG-KEY-Jenkins

aktiviert=1

Priorität=1

[root @ master yum.repos.d] #cat ambari.repo

#VERSION_NUMBER=2.7.1.0-169

[ambari-2.7.1.0]

name=ambari-Version – ambari-2.7.1.0

baseurl=http://192.168.31.139:8000/ambari/ambari/centos7/2.7.1.0-169/

gpgcheck=1

gpgkey=http://192.168.31.139:8000/ambari/ambari/centos7/2.7.1.0-169/RPM-GPG-KEY/RPM-GPG-KEY-Jenkins

aktiviert=1

Priorität=1

[root@master yum.repos.d]# cat hdp.repo

#VERSION_NUMBER=3.0.1.0-187

[HDP-3.0.1.0]

Name=HDP-3.0.1.0

baseurl=http://192.168.31.139:8000/ambari/HDP/centos7/3.0.1.0-187/

gpgcheck=1

gpgkey=http://192.168.31.139:8000/ambari/HDP/centos7/3.0.1.0-187/RPM-GPG-KEY/RPM-GPG-KEY-Jenkins

aktiviert=1

Priorität=1

[HDP-UTILS-1.1.0.22]

name=HDP-UTILS-Version – HDP-UTILS-1.1.0.22/

baseurl=http://192.168.31.139:8000/ambari/HDP-UTILS/centos7/1.1.0.22

gpgcheck=1

gpgkey=http://192.168.31.139:8000/ambari/HDP-UTILS/centos7/1.1.0.22/RPM-GPG-KEY/RPM-GPG-KEY-Jenkins

aktiviert=1

Priorität=1

Führen Sie dann den folgenden Befehl aus:

#yum clean all // YUM-Cache leeren

#yum makecache //Cache erstellen

#yum repolist

2.3 Ambari installieren und starten

# yum install ambari-server -y

# Ambari-Server-Setup

Wählen Sie die Installation gemäß den Eingabeaufforderungen aus:
1. y
2. Drücken Sie die Eingabetaste.
3. Aktivieren Sie Ambari Server zum Herunterladen und Installieren von GPL-lizenzierten LZO-Paketen [j/n] (n).
4. Geben Sie die erweiterte Datenbankkonfiguration ein [j/n] (n)? y
5 .Geben Sie Auswahl (1) ein: 3
Hostname (localhost): 192.168.31.139
Port (7306):
Datenbankname (ambari): ambaridb
MySQL-Schema (ambari):
Benutzername (ambari): ambari
Geben Sie das Datenbankkennwort ein (ambari):Amvari -123
Passwort erneut eingeben:
Ambari-Datenbank wird konfiguriert...
------------------------------------- -- -------------------

Starten Sie den Dienst
# ambari-server start

Der Server hat begonnen, die Konsistenzprüfung der 8080-
DB-Konfigurationen zu überwachen: Es wurden keine Fehler und Warnungen gefunden.
Der Start des Ambari-Servers wurde erfolgreich abgeschlossen.

Greifen Sie auf die URL des Webinitialisierungskonfigurationsclusters zu
: http:192.168.31.139:8080
Konto/Passwort: admin/admin

 3. Installieren Sie Ihre eigenen Komponenten über Ambari

1) Der Ambari-Dienst wurde erfolgreich gestartet. Geben Sie die Ambari-Adresse in den Browser ein: http://192.168.31.139:8080. Der Standardbenutzername ist admin und das Passwort ist admin. Nach dem Anmelden gelangen Sie auf die folgende Oberfläche:

 2) Klicken Sie auf „Installationsassistenten starten“, um einen Cluster zu erstellen, geben Sie den Clusternamen „HDPSKY“ in die folgende Oberfläche ein und passen Sie den Namen an.

 3) Klicken Sie auf „Weiter“. Die folgende Oberfläche wird angezeigt. Wählen Sie „Lokales Repository verwenden“ aus, wählen Sie dann das entsprechende Betriebssystem im Abschnitt aus und geben Sie die Quelladresse in die Basis-URL jedes Elements ein, bei der es sich um die konfigurierte httpd-Dienstadresse handelt in Abschnitt 1.2.8 .

4) Klicken Sie auf „Weiter“ und die folgende Schnittstelle wird angezeigt. Wählen Sie die Authentifizierungsmethode über den privaten SSH-Schlüssel aus, d. h. konfigurieren Sie die gegenseitige Passwortausnahme in Abschnitt 1.2.4. Kopieren Sie den privaten Schlüssel id_rsa lokal auf dem Master-Computer, klicken Sie auf „DATEI AUSWÄHLEN“, um ihn hochzuladen, und klicken Sie auf „Weiter“.

 Hinweis: Wenn es sich um einen einzelnen Knoten handelt, müssen Sie auch eine passwortfreie Konfiguration durchführen, dh Sie müssen kein Passwort für die lokale SSH-Adresse eingeben, was bedeutet, dass die Konfiguration korrekt ist. Andernfalls klicken Sie nach dem Klicken auf „Weiter“ Das Serverprotokoll meldet den folgenden Fehler.

 5) Nachdem Sie auf „Weiter“ geklickt haben, wird die folgende Warnmeldung angezeigt, die ignoriert werden kann, da der für die Hosts-Dateianalyse konfigurierte Domänenname „Master“ ist. Klicken Sie auf „WEITER“.

6) Wählen Sie den Dienst zur Installation und Konfiguration aus. Die Standardauswahl ist ausreichend. Wenn er zu diesem Zeitpunkt noch nicht installiert ist, können Sie ihn nach Abschluss des Vorgangs auch zur Installation hinzufügen.

7) Service-Master-Konfiguration

8) Konfiguration des Abschnitts „Slaves und Clients“ des Dienstes

Geben Sie im Popup-Feld unten das entsprechende Passwort ein, das standardmäßig mit dem Benutzernamen übereinstimmt.

9) Benutzerdefinierte Konfiguration der Dienste. Wenn ein Alarm vorliegt, folgen Sie bitte den Anweisungen, um die Adresse oder das Passwort zu ändern.

Beachten Sie, dass Sie bei der Konfiguration der HIVE-Datenbank die Option „Vorhandenes MySQL“ auswählen, da MySQL bereits auf dem Masterknoten installiert ist. Andernfalls wird der folgende Fehler gemeldet:

 

Achten Sie auf das rote Kästchen im Bild oben. Sie müssen das JDBC-Kanalpaket herunterladen. Zur Vorbereitung siehe Schritt 3) von 1.2.9. Führen Sie einfach die folgenden Vorgänge aus.

Nachdem die Konfigurationsänderung abgeschlossen ist, können Sie auf „VERBINDUNG TESTEN“ klicken, um einen Verbindungstest durchzuführen. Wenn Folgendes angezeigt wird, bedeutet dies, dass es erfolgreich war.

 

 

Nach dem Start der Installation wird die folgende Eingabeaufforderung angezeigt. Sie können auf das rote Feld klicken, um die Protokolldetails zur Analyse und Lösung anzuzeigen.

4. Elk über Ambrai installieren

4.1 Vorbereitungsarbeiten

4.1.1 Laden Sie das entsprechende Installationspaket herunter


elasticsearch-6.4.2.tar.gz
kibana-6.4.2-linux-x86_64.tar.gz
Ambari-Elastic-Service-master.zip
Download-Adresse:
https://www.elastic.co/cn/downloads/past- releases/elasticsearch-6-4-2
Download-Adresse:
https://www.elastic.co/cn/downloads/past-releases/kibana-6-4-2
Download-Adresse: https://github.com/BalaBalaYi/ Ambari-Elastic-Service

4.1.2 Laden Sie die dekomprimierte Kopie hoch


1) Ambari-Elastic-Service-master.zip
erstellt ein neues Verzeichnis /opt/es, lädt Ambari-Elastic-Service-master.zip in dieses Verzeichnis hoch und dekomprimiert es.

Geben Sie das dekomprimierte Verzeichnis ein und kopieren Sie die Ordner ELASTICSEARCH-6.4.x und KIBANA-6.4.x in das Verzeichnis /var/lib/ambari-server/resources/stacks/HDP/3.0/services.

Geben Sie das Verzeichnis /var/lib/ambari-server/resources/stacks/HDP/3.0/services ein und benennen Sie ELASTICSEARCH-6.4.x und KIBANA-6.4.x in ELASTICSEARCH und KIBANA um

2) Elasticsearch-6.4.2.tar.gz und kibana-6.4.2-linux-x86_64.tar.gz
erstellen neue Verzeichnisse /var/www/html/es und fügen kibana-6.4.2-linux-x86_64.tar hinzu .gz Laden Sie zwei komprimierte Pakete mit elasticsearch-6.4.2.tar.gz in dieses Verzeichnis hoch und geben Sie http://192.168.31.139:8080/es über den Browser ein, um zu testen, ob Sie auf dieses Verzeichnis zugreifen können (httpd-Dienst ist erforderlich, Abschnitt 1.2.8)

3) Ambari-Server neu starten
#ambari-server restart

4.2 Installation

Klicken Sie auf der Ambari-Seite unter „Dienste“ auf „Dienst hinzufügen“.

Überprüfen Sie Elasticsearch und Kibana

Wählen Sie den Knoten aus, auf dem die Master- und Serverdienste installiert sind

Wählen Sie den Knoten aus, auf dem der Slave-Dienst installiert ist

In der Dienstkonfigurationsoberfläche gibt es einen roten Punkt, der darauf hinweist, dass der Vorgang abgeschlossen werden muss.

Discovery Zen Ping Unicast Hosts-Parameter von Elasticsearch (zuvor ausgewählter installierter Knoten, Master)

Elasticsearch Download-URL-Parameter von Elasticsearch (Adresse des Installationspakets)

Kibanas Elasticsearch-URL-Parameter (es Nutzungsadresse, gemäß den Eingabeaufforderungen konfigurieren)

Server-Host-Parameter von Kibana (der zuvor für die Installation ausgewählte Knoten)

Kibana-Download-URL von Kibana (Adresse des Installationspakets, siehe 4.1.2)

Klicken Sie auf Weiter und dann auf Bereitstellen.

5. Während der Installation und Bereitstellung aufgetretene Probleme

5.1 Fehler: Clienttransport mit JDBC-URI konnte nicht geöffnet werden

Die Konfigurationsinformationen in  der Hadoop-Datei core-site.xml lauten wie folgt: Starten Sie Hadoop neu und starten Sie hiveserver2 und beeline erneut.

<Eigenschaft>

<name>hadoop.proxyuser.root.hosts</name>

<Wert>*</Wert>

</property>

<Eigenschaft>

<name>hadoop.proxyuser.root.groups</name>

<Wert>*</Wert>

</property>

5.2 Fehler beim Starten des Hive-Dienstes

Fehlermeldung: Sys DB und Informationsschema noch nicht erstellt

Lösung:
#cd /etc/hive/
#touch /etc/hive/sys.db.createdGeben
Sie den Ambari-Server ein und starten Sie ihn neu.
#Ambari-Server-Neustart

5.3 Probleme mit der Elasticesearch- Benutzernamengruppe

Fehler: KeyError: u'elasticsearch'
Fehler: Fehler: Das benutzerdefinierte Hook-Skript ['/usr/bin/python', '/var/lib/ambari-agent/cache/stack-hooks/before-ANY/ kann nicht ausgeführt werden. scripts/hook.py', 'ANY', '/var/lib/ambari-agent/data/command-102.json', '/var/lib/ambari-agent/cache/stack-hooks/before-ANY' , '/var/lib/ambari-agent/data/structured-out-102.json', 'INFO', '/var/lib/ambari-agent/tmp', 'PROTOCOL_TLSv1_2', '']

lösen:

Sie müssen einen Konfigurationsparameter in der Ambari-Server-Ressource ändern, „ignore_groupsusers_create“ von „false“ in „true“ ändern und dann manuell Benutzer und Benutzergruppen erstellen . Spezifische Schritte:

# cd /var/lib/ambari-server/resources/scripts

# python configs.py -u admin -p admin -n Cluster_es -l Manager.node -t 8080 -a get -c Cluster-Env | grep -iignore_groupsusers_create

# python configs.py -u admin -p admin -n Cluster_es -l Manager.node -t 8080 -a Set -c Cluster-Env -k Ignore_groupsusers_create -v true

5.4 Elasticsearch kann format_hdp_stack_version nicht importieren

Fehler: ImportError: Name format_hdp_stack_version kann nicht importiert werden

lösen:

erster Schritt,

#c d /var/lib/ambari-server/resources/stacks/HDP/3.0/services/ELASTICSEARCH/package/scripts

#vim params.py

Löschen Sie format_hdp_stack_version in der Datei params.py.

Der zweite Schritt besteht darin, den Ambari-Agent-Cache aller Elasticsearch-Slave-Knoten zu löschen.

# rm -rf /var/lib/ambari-agent/cache/*

Rufen Sie die Seite des Ambari-Servers auf und starten Sie
#ambari-server restart neu

5.5 Kibana kann format_hdp_stack_version nicht importieren

Die Lösung ist die gleiche wie oben.
#cd /var/lib/ambari-server/resources/stacks/HDP/3.0/services/KIBANA/package/scripts Verzeichnis.
Leeren Sie den Cache, starten Sie den Ambari-Server und die Agent-Dienste neu und installieren Sie ihn dann neu oder versuchen Sie es erneut, es tritt jedoch der folgende Fehler auf.

5.6 Kibana kann format_hdp_stack_version nicht importieren

Fehler: _new__() von Kibana benötigt mindestens 2 Argumente (1 angegeben)

Lösung: Erstellen Sie einen Kibana-Benutzer auf dem Kibana-Serverknoten (die Gruppe wurde bereits vom Skript erstellt).

useradd -g useradd

5.7 Hostname wurde im Konfigurationswörterbuch nicht gefunden

Quelle: „/var/lib/ambari-agent/cache/stacks/HDP/3.0/services/ELASTICSEARCH/package/templates/elasticsearch.master.yml.j2“, Zeile 93, im Vorlagencode der obersten Ebene action.destructive_requires_name
: { {action_destructive_requires_name}}
Datei „/usr/lib/ambari-agent/lib/resource_management/libraries/script/config_dictionary.py“, Zeile 73, in __getattr__
raise Fail(“Configuration parameter '“ + self.name + „‘ war nicht im Konfigurationswörterbuch gefunden! )

Lösung:

cd /var/lib/ambari-server/resources/stacks/HDP/3.0/services/ELASTICSEARCH/configuration

Bearbeiten Sie die Datei „elasticsearch-config.xml“ und stellen Sie fest, dass der Wert des Attributs „discovery.zen.ping.unicast.hosts“ leer ist.

Wir haben diesen Parameter während der Installation ausgefüllt und den Wert dieses Parameters eingegeben.

<name>discovery.zen.ping.unicast.hosts</name>
<value> master </value>

cd

/var/lib/ambari-server/resources/stacks/HDP/3.0/services/ELASTICSEARCH/package/scripts
Bearbeiten Sie params.py und stellen Sie fest, dass es zwei Möglichkeiten gibt, hostname=config['hostname'] zu schreiben.

Ändern Sie beide Orte wie folgt:

hostname = config['configurations']['elasticsearch-config'][' Discovery.zen.ping.unicast.hosts '] 

Löschen Sie den Ambari-Agent-Cache aller Elasticsearch-Slave-Knoten.
Starten Sie den Ambari-Server-Neustart des Serverknotens neu.
Starten Sie den Ambari-Agent-Neustart des Slave-Knotens neu.
Starten Sie den Elasticsearch-Dienst neu und stellen Sie fest, dass der Dienst gestartet werden kann .

5.8 Master und Slave starten und stoppen dann

Eine Überprüfung des Protokolls zeigt diese beiden Fehler.

Fehlermeldung:

Die maximale Anzahl an Dateideskriptoren [4096] für den Elasticsearch-Prozess ist zu niedrig. Erhöhen Sie sie auf mindestens [65536].
Lösung:
Die maximale Anzahl gleichzeitig von jedem Prozess geöffneter Dateien ist zu gering. Sie können die aktuelle Anzahl mit den folgenden zwei Befehlen überprüfen

ulimit -Hn
ulimit -Sn

Ändern Sie die Datei /etc/security/limits.conf und fügen Sie die Konfiguration hinzu (alle Master- und Slave-Knoten).

Fehlermeldung:

max. virtuelle Speicherbereiche vm.max_map_count [65530] ist zu niedrig, erhöhen Sie ihn auf mindestens [262144]
Lösung:
Ändern Sie die Datei /etc/sysctl.conf und erhöhen Sie die Konfiguration (alle Master- und Slave-Knoten).

vm.max_map_count=262144

Führen Sie dann den Befehl sysctl -p aus, damit er wirksam wird

sysctl -p

5.9  Das übergeordnete Verzeichnis /opt/elasticsearch/master/config existiert nicht

Dieser Fehler trat auf den anderen beiden Slave-Knoten auf.
Die Lösung ist einfach: Erstellen Sie einfach ein leeres Verzeichnis.

mkdir -p /opt/elasticsearch/master/config

Supongo que te gusta

Origin blog.csdn.net/weixin_40012925/article/details/129987082
Recomendado
Clasificación