基盤となるストレージシステムHA HDFSのクラスタ上Alluxio1.8使用スタンドアロン

著作権:転載リンクしてくださいhttps://blog.csdn.net/DPnice/article/details/84664928

ソフトウェア・バージョン:

ソフトウェア
JDK jdk1.8.0_191
飼育係 飼育係-3.4.12
Hadoopの Hadoopの-2.8.5
alluxio alluxio-1.8.0-Hadoopの-2.8

設定JDK:

解凍してソフトリンクを作成します。

$ sudo ln -s /opt/Software/jdk1.8.0_191/ /jdk

設定の環境変数:

$ vi /etc/profile

次の行を追加します。

export JAVA_HOME=/jdk
export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH

環境変数ファイルを更新します。

$ source /etc/profile

キーレス設定:

ローカルまたはSSHプロトコルを組み込んでいないことを確認してください。

$ sudo rpm -qa|grep ssh

あなたが必要としない場合はyumのsshをインストール

.sshディレクトリにユーザーディレクトリでは、あなたがキーレスを設定する必要があるかどうかをチェックします

デフォルトでは、ディレクトリの.sshではありません

何も実行は、SSH鍵を生成しないだろう場合:

$ ssh-keygen -t rsa

連続した4を終え入力します

リモートホストに公開鍵をコピーし、自分自身をターゲット:

$ ssh-copy-id dpnice@cdh1
$ ssh-copy-id dpnice@cdh2
$ ssh-copy-id dpnice@cdh3

インストール設定のZooKeeper:

解凍飼育係:

解凍飼育係のディレクトリを入力したら、フォルダを作成します。

$ mkdir log
$ mkdir data

confディレクトリを入力します。

$ cp zoo_sample.cfg zoo.cfg 
$ vi zoo.cfg

次を追加または変更します。

dataDir=/opt/Software/zookeeper-3.4.12/data
dataLogDir=/opt/Software/zookeeper-3.4.12/log

server.1=cdh1:2222:2225
server.2=cdh2:2222:2225
server.3=cdh3:2222:2225

データディレクトリで/opt/Software/zookeeper-3.4.12/dataの次の新しいファイルの名前MYID:

$ vi /opt/Software/zookeeper-3.4.12/data/myid

MYIDにファイルの内容をCDH1追加

1

異なる各ホストに対応するコンテンツは、コンテンツがCDH1 1であり、CDH2コンテンツが2である、CDH3コンテンツは、構成ファイルserver.x Xに対応し、3

設定ファイルは、他のノードに送信されます。

$ scp -r /opt/Software/zookeeper-3.4.12/conf/zoo.cfg dpnice@cdh2:/opt/Software/zookeeper-3.4.12/conf/
$ scp -r /opt/Software/zookeeper-3.4.12/conf/zoo.cfg dpnice@cdh3:/opt/Software/zookeeper-3.4.12/conf/

すべてのノードが起動を実行します。

$ /opt/Software/zookeeper-3.4.12/bin/zkServer.sh start

ノードステータスの身元を確認します。

$ /opt/Software/zookeeper-3.4.12/bin/zkServer.sh status

インストールHaoop構成HA HDFS、HA YARN:

解凍のHadoop:

ディレクトリへのHadoop

$cd /opt/Software/hadoop-2.8.5/

フォルダを作成します:

mkdir /opt/Software/hadoop-2.8.5/tmp
mkdir /opt/Software/hadoop-2.8.5/data

ディレクトリにHadoopの設定ファイル:

$ cd etc/hadoop/

設定ファイルを編集します。

$ Viのコア-site.xmlのは、次の設定を追加します。

<!-- 指定hdfs的nameservice-->
<property>
  <name>fs.defaultFS</name>
  <value>hdfs://nns</value>
</property>
<!--指定hadoop数据临时存放目录-->
<property>
     <name>hadoop.tmp.dir</name>
     <value>/opt/Software/hadoop-2.8.5/tmp</value>
</property>
<property>
     <name>io.file.buffer.size</name>
     <value>4096</value>
</property>
<!--指定zookeeper地址-->
<property>
     <name>ha.zookeeper.quorum</name>
     <value>cdh1:2181,cdh2:2181,cdh3:2181</value>
</property>
<property>
 <name>fs.trash.interval</name>
 <value>1440</value>
 <description>默认0,表示不开启垃圾箱功能,大于0时,表示删除的文件在垃圾箱中存留的分钟数,</description>
</property>
<property>
 <name>fs.trash.checkpoint.interval</name>
 <value>1440</value>
 <description>垃圾回收检查的时间间隔,值应该小于等于 fs.trash.interval。默认0,此时按fs.trash.interval的值大小执行</description>
</property>

$ ViのHDFS-site.xmlの

名前ノード名は「_」アンダースコアをすることはできません

<!-- 指定hdfs的nameservice为nns,需要和core-site.xml中的保持一致 -->
<property>
	<name>dfs.nameservices</name>
	<value>nns</value>
</property>
<!-- nns下面有两个NameNode,分别是 nn0 ,nn1 -->
<property>
	<name>dfs.ha.namenodes.nns</name>
	<value>nn0,nn1</value>
</property>
<!-- nn0 的RPC通信地址 -->
<property>
	<name>dfs.namenode.rpc-address.nns.nn0</name>
	<value>cdh1:9000</value>
</property>
<!-- nn0 的http通信地址 -->
<property>
	<name>dfs.namenode.http-address.nns.nn0</name>
	<value>cdh1:50070</value>
</property>
<!-- nn1 的RPC通信地址 -->
<property>
	<name>dfs.namenode.rpc-address.nns.nn1</name>
	<value>cdh2:9000</value>
</property>
<!-- nn1 的http通信地址 -->
<property>
	<name>dfs.namenode.http-address.nns.nn1</name>
	<value>cdh2:50070</value>
</property>
<property>
    <name>dfs.namenode.shared.edits.dir</name>
    <value>qjournal://cdh1:8485;cdh2:8485;cdh3:8485/nns</value>
</property>
<!-- 指定JournalNode在本地磁盘存放数据的位置 -->
<property>
    <name>dfs.journalnode.edits.dir</name>
    <value>/opt/Software/hadoop-2.8.5/journal</value>
</property>
<!-- 开启NameNode故障时自动切换 -->
<property>
      <name>dfs.ha.automatic-failover.enabled</name>
      <value>true</value>
</property>
<!-- 配置失败自动切换实现方式 -->
<property>
    <name>dfs.client.failover.proxy.provider.nns</name>
    <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>
<!-- 配置隔离机制 -->
<property>
    <name>dfs.ha.fencing.methods</name>
    <value>sshfence</value>
</property>
<!-- 使用隔离机制时需要ssh免登陆 -->
<property>
    <name>dfs.ha.fencing.ssh.private-key-files</name>
    <value>/home/dpnice/.ssh/id_rsa</value>
</property>
<!-- 当前节点为name节点时的元信息存储路径.这个参数设置为多个目录,那么这些目录下都保存着元信息的多个备份 -->
<property>
    <name>dfs.namenode.name.dir</name>
    <value>file:///opt/Software/hadoop-2.8.5/data/namenode</value>
</property>
<!-- 当前节点为data节点时的元信息存储路径.这个参数设置为多个目录,那么这些目录下都保存着数据信息的多个备份 -->
<property>
    <name>dfs.datanode.data.dir</name>
    <value>file:///opt/Software/hadoop-2.8.5/data/datanode</value>
</property>
<property>
	<name>dfs.replication</name>
	<value>2</value>
</property>
<property>
	<name>dfs.permissions.enabled</name>
    <value>false</value>
</property>
<property>
    <name>dfs.web.ugi</name>
    <value>dpnice,supergroup</value>
</property>
<property>
    <name>dfs.permissions.superusergroup</name>
    <value>supergroup</value>
</property>

$ cpはmapred-site.xml.template mapred-site.xmlに

$ Viのmapred-site.xmlに

<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>
<property>
	<name>mapreduce.jobhistory.address</name>
	<value>cdh2:10020</value>
</property>
<property>
	<name>mapreduce.jobhistory.webapp.address</name>
	<value>cdh2:19888</value>
</property>

$ Viの糸-site.xmlに

<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
    <description>NodeManager上运行的附属服务。需配置成mapreduce_shuffle,才可运行MapReduce程序</description>
</property>
<property>
    <name>yarn.resourcemanager.ha.enabled</name>
    <value>true</value>
<description>是否启用 ResourceManager 高可用,默认 false</description>
</property>
<property>
    <name>yarn.resourcemanager.cluster-id</name>
    <value>cluster1</value>
    <description>ResourceManager 集群名</description>
</property>
<property>
  <name>yarn.resourcemanager.ha.rm-ids</name>
  <value>rm1,rm2</value>
</property>
<property>
  <name>yarn.resourcemanager.hostname.rm1</name>
  <value>cdh1</value>
</property>
<property>
  <name>yarn.resourcemanager.hostname.rm2</name>
  <value>cdh2</value>
</property>
<property>
    <name>yarn.resourcemanager.webapp.address.rm1</name>
    <value>cdh1:8088</value>
</property>
<property>
    <name>yarn.resourcemanager.webapp.address.rm2</name>
    <value>cdh2:8088</value>
</property>
<property>
    <name>yarn.resourcemanager.zk-address</name>
    <value>cdh1:2181,cdh2:2181,cdh3:2181</value>
</property>
<property>
    <name>yarn.log-aggregation-enable</name>
    <value>true</value>
    <description>是否开启日志聚集功能,默认false。应用执行完成后,Log Aggregation 收集每个 Container 的日志到 HDFS 上</description>
</property>
<property>
  <name>yarn.log-aggregation.retain-seconds</name>
  <value>25200</value>
  <description>聚集日志最长保留时间</description>
</property>

追加:hadoop-env.shファイル:

$ vi /opt/Software/hadoop-2.8.5/etc/hadoop/hadoop-env.sh
export JAVA_HOME=/jdk

設定ファイルは、他のノードに送信されます。

$ scp -rp /opt/Software/hadoop-2.8.5/etc/hadoop/core-site.xml /opt/Software/hadoop-2.8.5/etc/hadoop/hdfs-site.xml /opt/Software/hadoop-2.8.5/etc/hadoop/yarn-site.xml /opt/Software/hadoop-2.8.5/etc/hadoop/mapred-site.xml /opt/Software/hadoop-2.8.5/etc/hadoop/hadoop-env.sh cdh2:/opt/Software/hadoop-2.8.5/etc/hadoop/
$ scp -rp /opt/Software/hadoop-2.8.5/etc/hadoop/core-site.xml /opt/Software/hadoop-2.8.5/etc/hadoop/hdfs-site.xml /opt/Software/hadoop-2.8.5/etc/hadoop/yarn-site.xml /opt/Software/hadoop-2.8.5/etc/hadoop/mapred-site.xml /opt/Software/hadoop-2.8.5/etc/hadoop/hadoop-env.sh cdh3:/opt/Software/hadoop-2.8.5/etc/hadoop/

znode飼育係内のストレージ名前ノードHA-関連データを作成します

$ /opt/Software/hadoop-2.8.5/bin/hdfs zkfc -formatZK

zkCliビューの飼育係を使用します。

$ /opt/Software/zookeeper-3.4.12/bin/zkCli.sh -server 192.168.137.130:2181

Hadoopの-haのカタログ場合zkCliは、以下を参照してください。

$ ls /

すべてJournalNodeプロセスを開始します。

$ /opt/Software/hadoop-2.8.5/sbin/hadoop-daemons.sh start journalnode

フォーマット:

$ /opt/Software/hadoop-2.8.5/bin/hdfs namenode -format

あなたが名前ノードを再フォーマットする必要がある場合は、元の名前ノードの最初のファイルに必要とデータノードはすべて、またはエラーになり、名前ノードデータノードのディレクトリdfs.namenode.name.dir、コア-site.xmlでhadoop.tmp.dirあるを削除、dfs.datanode.data.dirプロパティ設定。各フォーマットなので、デフォルトでは、クラスタのIDを作成することで、名前ノードとデータノードVERSIONファイルは、再フォーマットは、デフォルトではあなたが元のディレクトリを削除しない場合、それは名前ノードをリードする、新しいクラスタIDが生成されます書き込み、 VERSIONファイルは、新しいクラスタのIDで、古いクラスタIDでのデータノードは、エラーが一貫性がなくなります。

ここで開始ノードのActive名前ノード:

$ /opt/Software/hadoop-2.8.5/sbin/hadoop-daemon.sh start namenode

別のノード上のスタンバイ名前ノード同期:

$ /opt/Software/hadoop-2.8.5/bin/hdfs namenode -bootstrapStandby

スタンバイ名前ノードを起動します。

$ /opt/Software/hadoop-2.8.5/sbin/hadoop-daemon.sh start namenode

この時点で、すべてのコンポーネントをオフにして、HDFSを開始することができます

第1のスイッチがアクティブな状態にあります。

$ /opt/Software/hadoop-2.8.5/bin/hdfs haadmin -transitionToActive --forcemanual nn0

手動フェイルオーバーを使用するように強制-forcemanual

閉じる:journalnode

$ /opt/Software/hadoop-2.8.5/sbin/hadoop-daemons.sh stop journalnode

閉じる:名前ノード

$ /opt/Software/hadoop-2.8.5/sbin/hadoop-daemon.sh stop namenode

HDFSを起動します。

$ /opt/Software/hadoop-2.8.5/sbin/start-dfs.sh

[dpnice @ CDH1のHadoop-2.8.5] $ JPS
13985名前ノード
14737 DFSZKFailoverController
14881 JPS
14147データノード
14454 JournalNode
8847 QuorumPeerMain

[dpnice @ CDH2のHadoop-2.8.5] $ JPS
11760名前ノード
12145 JPS
11942 JournalNode
12056 DFSZKFailoverController
11834データノード
8219 QuorumPeerMain

インストール構成Alluxio 1.8

要約:

大きなデータ・エコシステムにおいて、Alluxio計算フレームワークとの間(例えば、Apacheのスパーク、アパッチのMapReduceは、ApacheのHBase、アパッチハイブ、アパッチFLINK)と既存のストレージ・システム(例えば、アマゾンS3、OpenStackのスイフト、GlusterFS、HDFS、MaprFS、セファロ間、NFS、OSS)。Alluxioは、ビッグデータのソフトウェアスタックのための大幅なパフォーマンス向上をもたらします。Alluxioは、Hadoopのと互換性があります。このようなスパークのMapReduceプログラムのような従来のデータ分析アプリケーション、直接Alluxio上で実行するコードを変更しなくてもよいです。

DESIGN:

Alluxioは、アーキテクチャのシングルとマルチワーカーのマスターを使用して設計しました。高レベルの概念的な理解から、Alluxioは、3つの部分、マスター、労働者及びクライアントに分けることができます。Alluxioは一緒に、彼らは部品を維持し、管理するためのシステム管理者は、サーバとマスターワーカーを形成します。クライアント・アプリケーションは通常、このようなスパークまたはMapReduceの、Alluxioまたはコマンド・ライン・ユーザなどの操作。Alluxioユーザーは、一般的にのみAlluxioとクライアントのコンポーネントを相互に作用します。

プロセス:

AlluxioProxyは:プロセスは、RESTインターフェースとAlluxioサーバ間の内部AlluxioのJavaクライアントプロキシ通信を使用しています。
AlluxioMaster:メタデータの管理を担当
AlluxioWorkerを:データの読み取りと書き込みの責任

前提条件:

  1. ジャワ(JDK 8以降)
  2. Telnetサービスを開きます。
  3. HDFSは、すでにインストールされ、実行され
  4. 飼育係は、すでにインストールされ、実行され
  5. sudo権限を持つユーザー

インストール:

開梱し、環境変数を設定し、ソフトリンクを作成

ln -s /opt/Software/alluxio-1.8.0-hadoop-2.8/ /alluxio

Alluxioは、構成を開始confディレクトリを入力します。

ソフトリンクを作成します。

$ ln -s /opt/Software/hadoop-2.8.5/etc/hadoop/core-site.xml ./core-site.xml
$ ln -s /opt/Software/hadoop-2.8.5/etc/hadoop/hdfs-site.xml ./hdfs-site.xml

HA HDFSはalluxio-site.properties / Hadoopの/コアsite.xml内などalluxio.underfs.hdfs.configuration = / OPT /ソフトウェア/ Hadoopの-2.8.5を保存/または構成するために使用します。/ opt /ソフトウェア/ hadoop- 2.8.5の/ etc / Hadoopの/ HDFS-site.xmlの

Alluxio-site.properties設定ファイル:

$ cp alluxio-site.properties.template alluxio-site.properties
$ vi alluxio-site.properties

添加或追加以下内容:
alluxio.master.hostname=cdh1
alluxio.underfs.address=hdfs://nns/
alluxio.zookeeper.enabled=true
alluxio.zookeeper.address=cdh1:2181,cdh2:2181,cdh3:2181
alluxio.master.journal.folder=hdfs://nns/alluxio/journal

NNSのdfs.nameservicesがさ
alluxio.master.hostnameのみ構成する必要がマスタノードに配置
設定する必要のみとalluxio.zookeeper.addressワーカーノードはalluxio.zookeeper.enabled

他のノードへの設定情報を送信するには:

$ /opt/Software/alluxio-1.8.0-hadoop-2.8/bin/alluxio copyDir /opt/Software/alluxio-1.8.0-hadoop-2.8/conf/

指定されたホストのすべてのalluxio / confに/労働者へのファイルとフォルダを同期します。あなただけAlluxioマスターノードでアーカイブAlluxioをダウンロードし、解凍した場合は、copyDirワーカーノード・クリップの下Alluxioファイル同期コマンドを使用することができます、また、変更はすべての労働者の会/ alluxio-site.propertiesを同期させるために、このコマンドを使用することができますノード。

HAの使用に注意してください:alluxio.master.hostname =のCDH2は、2つのマスターを持っていることを確認するように変更する必要がCDH2

あなたがあなたの初回起動時にフォーマットする必要があります。

$ /alluxio/bin/alluxio format

フォーマットされたHDFSの存在/ alluxioフォルダ:

[dpnice@cdh3 hadoop]$ /hadoop/bin/hdfs dfs -ls /
Found 4 items
drwxr-xr-x   - dpnice supergroup          0     2018-11-29 02:06 /alluxio

sudoはキーレス
Linuxのファイルに現在のユーザー与えられたの/ etc / sudoersファイル、( "alluxio")を次の行を追加限らsudo権限ALL =(ALL)NOPASSWD alluxio: / binに/ *を/ mnt / RAMディスクをマウントし、/ binに/アンマウントを* / MNT / RAMディスク、/ binに / MKDIR * / MNT / RAMディスク、/ binに/ chmodの* / MNT / RAMディスク"alluxio"ユーザアプリケーション須藤許可コマンドを実行することを可能にする特定のパスにマウント/ MNT / RAMディスク、アンマウント、MKDIRそして、chmod(コマンドを想定して/ binに/)、およびパスワードなし。

ローカル環境ことを確認します。

$ /alluxio/bin/alluxio validateEnv local

CDH1では、CDH2はマスターを起動します。

$ /alluxio/bin/alluxio-start.sh master

CDH1、CDH2、CDH3スタート労働者には:

$ sudo /alluxio/bin/alluxio-start.sh worker Mount

あなたが設定ファイルにramfsパスを作成して設定する必要があり、このメソッドを使用して$ /Alluxio/bin/alluxio-start.sh労働者

簡単なプログラムを実行します。

$ /alluxio/bin/alluxio runTests

検証:

[dpnice@cdh3 hadoop]$ /hadoop/bin/hdfs dfs -ls /
Found 4 items
drwxr-xr-x   - dpnice supergroup          0     2018-11-29 02:06 /alluxio
drwxr-xr-x   - dpnice dpnice              0     2018-11-29 02:28 /default_tests_files

ビューのリーダーノード:

$ /alluxio/bin/alluxio fs leader

[dpnice@cdh3 hadoop]$ /alluxio/bin/alluxio fs leader
cdh2

リーダーがダウンしたり、他のマスターが短い初期化動作の後にサービスを提供しますハングアップすると、表示が完全に初期化できません:
[CDH1 confの@ dpnice] $ / alluxio / binに/ alluxio FSリーダー
CDH1
リーダー・レートで、このページでは、現在サービスを要求されていません。

アクセスリーダーノードのhttp:// CDH2:19999

このスタンバイノードでは使用できません。

ここに画像を挿入説明

ルートディレクトリにファイルをアップロードalluxio

$ /alluxio/bin/alluxio fs copyFromLocal simple-start-app.sh /

ここに画像を挿入説明

alluxioは、HDFSファイルに永続化

$ /alluxio/bin/alluxio fs persist /simple-start-app.sh

ここに画像を挿入説明

コマンドを閉じます。

$ /alluxio/bin/alluxio-stop.sh master
$ /alluxio/bin/alluxio-stop.sh worker

オペレーティングデモ:

ファイルの単語を作成します。

$ vi word.txt
内容为:
spark hadoop
spark hadoop alluxio dpnice
spark hadoop alluxio
spark hadoop alluxio

HDFSにアップロード:

[dpnice@cdh1 ~]$ /hadoop/bin/hdfs dfs -put ./word.txt /

ビューのファイル:

[dpnice@cdh1 ~]$ /alluxio/bin/alluxio fs ls /
drwxr-xr-x dpnice         supergroup                   1       PERSISTED 11-29-2018 02:06:29:240  DIR /alluxio
drwxr-xr-x dpnice         dpnice                      24       PERSISTED 11-29-2018 02:28:51:060  DIR /default_tests_files
drwxr-xr-x dpnice         dpnice                       0       PERSISTED 11-30-2018 01:14:47:538  DIR /efault_tests_files
drwxr-xr-x dpnice         dpnice                       0   NOT_PERSISTED 11-30-2018 01:18:21:146  DIR /mnt 
-rw-r--r-- dpnice         dpnice                     421       PERSISTED 11-29-2018 18:31:08:737 100% /simple-start-app.sh
drwxr-xr-x dr.who         supergroup                   0       PERSISTED 11-29-2018 01:34:41:034  DIR /test
-rw-r--r-- dpnice         supergroup                  84       PERSISTED 11-30-2018 01:08:06:984   0% /word.txt

HDFS上のword.txtは自動的でalluxioにマップされますが、メモリ内で、メモリに格納されていないわけではありません。

統計はの火花の数をword.txt:

[dpnice@cdh1 ~]$ time /alluxio/bin/alluxio fs cat /word.txt | grep -c spark
4

real	0m11.023s
user	0m3.490s
sys     0m1.136s

再次查看文件word.txt:

[dpnice@cdh1 ~]$ /alluxio/bin/alluxio fs ls /word.txt
-rw-r--r-- dpnice         supergroup                  84       PERSISTED 11-30-2018 01:08:06:984 100% /word.txt

显示已经全部加载到内存中

再次统计hadoop的数量:

[dpnice@cdh1 ~]$ time /alluxio/bin/alluxio fs cat /word.txt | grep -c hadoop
4

real	0m3.649s
user	0m2.289s
sys     0m0.670s

会看到相比第一次明显快了很多(其实还是慢的因为虚拟机的缘故),因为数据已经存放到了Alluxio。

操作列表:

操作 语法 描述
cat cat “path” 将Alluxio中的一个文件内容打印在控制台中
checkConsistency checkConsistency “path” 检查Alluxio与底层存储系统的元数据一致性
checksum checksum “path” 计算一个文件的md5校验码
chgrp chgrp “group” “path” 修改Alluxio中的文件或文件夹的所属组
chmod chmod “permission” “path” 修改Alluxio中文件或文件夹的访问权限
chown chown “owner” “path” 修改Alluxio中文件或文件夹的所有者
copyFromLocal copyFromLocal “source path” “remote path” 将“source path”指定的本地文件系统中的文件拷贝到Alluxio中"remote path"指定的路径 如果"remote path"已经存在该命令会失败
copyToLocal copyToLocal “remote path” “local path” 将"remote path"指定的Alluxio中的文件复制到本地文件系统中
count count “path” 输出"path"中所有名称匹配一个给定前缀的文件及文件夹的总数
cp cp “src” “dst” 在Alluxio文件系统中复制一个文件或目录
du du “path” 输出一个指定的文件或文件夹的大小
fileInfo fileInfo “path” 输出指定的文件的数据块信息
free free “path” 将Alluxio中的文件或文件夹移除,如果该文件或文件夹存在于底层存储中,那么仍然可以在那访问
getCapacityBytes getCapacityBytes 获取Alluxio文件系统的容量
getfacl getfacl “path”
getUsedBytes getUsedBytes 获取Alluxio文件系统已使用的字节数
help help “cmd” 打印给定命令的帮助信息,如果没有给定命令,打印所有支持的命令的帮助信息
leader leader 打印当前Alluxio leader master节点主机名
load load “path” 将底层文件系统的文件或者目录加载到Alluxio中
loadMetadata loadMetadata “path” 将底层文件系统的文件或者目录的元数据加载到Alluxio中
location location “path” 输出包含某个文件数据的主机
ls ls “path” 列出给定路径下的所有直接文件和目录的信息,例如大小
masterInfo masterInfo 打印Alluxio master容错相关的信息,例如leader的地址、所有master的地址列表以及配置的Zookeeper地址
mkdir mkdir “path1” … “pathn” 在给定路径下创建文件夹,以及需要的父文件夹,多个路径用空格或者tab分隔,如果其中的任何一个路径已经存在,该命令失败
mount mount “path” “uri” 将底层文件系统的"uri"路径挂载到Alluxio命名空间中的"path"路径下,"path"路径事先不能存在并由该命令生成。 没有任何数据或者元数据从底层文件系统加载。当挂载完成后,对该挂载路径下的操作会同时作用于底层文件系统的挂载点。
mv mv “source” “destination” 将"source"指定的文件或文件夹移动到"destination"指定的新路径,如果"destination"已经存在该命令失败。
persist persist “path1” … “pathn” 将仅存在于Alluxio中的文件或文件夹持久化到底层文件系统中
pin pin “path” 将给定文件锁定到内容中以防止剔除。如果是目录,递归作用于其子文件以及里面新创建的文件
report report “path” 向master报告一个文件已经丢失
rm rm “path” 删除一个文件,如果输入路径是一个目录该命令失败
setfacl setfacl “newACL” “path”
setTtl setTtl “path” “time” 设置一个文件的TTL时间,单位毫秒
stat stat “path” 显示文件和目录指定路径的信息
tail tail “path” 将指定文件的最后1KB内容输出到控制台
test test “path” 测试路径的属性,如果属性正确,返回0,否则返回1
touch touch “path” 在指定路径创建一个空文件
unmount unmount “path” 卸载挂载在Alluxio中"path"指定路径上的底层文件路径,Alluxio中该挂载点的所有对象都会被删除,但底层文件系统会将其保留。
unpin unpin “path” 将一个文件解除锁定从而可以对其剔除,如果是目录则递归作用
unsetTtl unsetTtl “path” 删除文件的ttl值

ramfs和tmpfs的区别:https://www.cnblogs.com/dosrun/p/4057112.html

http://www.alluxio.org/docs/1.8/cn/deploy/Running-Alluxio-on-a-Cluster.html#設定alluxio
http://www.alluxio.org/docs/1.8/cn/ufs/ HDFS.html#基本的な構成
http://www.alluxio.org/docs/1.8/cn/basic/Command-Line-Interface.html#アクションリスト

おすすめ

転載: blog.csdn.net/DPnice/article/details/84664928
おすすめ