MongoDBは設定結合フラグメントをコピーします

MongoDBは設定結合フラグメントをコピーします

I.概要スライス;
IIフラグメント・ストレージ・原則;
3例:MongoDBの設定結合フラグメント、効率的なストレージをコピーします。

I.概要スライス:
概要:スライス(シャーディング)異なるマシン上に分散されたデータベースを分割する処理です。スライスクラスタ(かけらクラスタ)は、水平拡張データベースシステムのパフォーマンスの方法でストレージを分散各スライス・データ・セットのデータ・セットの部分のみを保存する、異なるスライス(シャード)とすることができる、MongoDBはそのすべての点を保証しますすべてのフラグメントの合計の保存されたデータとの間でデータの重複部分は、完全なデータセットではありません。スライス・データ・セットは、ストレージクラスタを分散、負荷が複数のスライスに配分することができ、各スライスのみ読み書きデータの部分を担当して、システムは、システム・データベースのスループットを向上させる、各シャードの資源を最大限利用します。
注意:mongodb3.2バージョンの後、スライス技術を完了するために、複製セットと組み合わせる必要があります。
シナリオは:
1.シングルマシンのディスクが十分ではありません、ディスクスペースの問題を解決するための断片化を使用しています。
2.単一のmongodの書き込みデータは、性能要件を満たすことができません。サーバースライス独自のリソースを使用し、上記の各スライスに配布圧力を聞かせてスライスして書かれました。
3.パフォーマンスを改善するためにメモリに大量のデータが欲しいです。スライスフラグメント自身のリソースを使って、上記のように、サーバー。

第二、断片記憶の原理:
MongoDBは設定結合フラグメントをコピーします
ストレージ:データブロック(チャンク)に設定されたデータ、ドキュメントを複数備え、各データブロックは、フラグメント・クラスタに格納された分散データブロックを分割します。
役割:
構成サーバー:スライス・データ・ブロックを格納各々がシャード、情報のブロックの分布を追跡する責任のMongoDBが3台の設定サーバを使用して、一般的に、データベースの設定サーバ設定に格納され、フラグメントメタデータと呼ばれます、 ;すべての設定コンフィグサーバデータベースは、同一の(安定性を確保するために、異なるサーバに配備推奨構成サーバー)である必要があり
、データの断片データ・ブロック(チャンク)、リアルに格納されたデータ・ブロックに分割:シャードサーバー単位;
mongosサーバー:データベースクラスタ要求エントリ、すべての要求がmongosを通じて調整されているが、本番環境では、メタデータの断片は、チャンクの格納場所を見て、mongos彼は要求流通センターで閲覧することは要求されたとして、どのようにmongos通常、ハングを防ぐ入口には、すべての要求は決してMongoDBの操作を持っていません。

要約:チェックMongoDBの欠失の動作を変更するmongosアプリケーション要求、メタ情報サーバは、構成データベースを格納し、mongosとの同期を行うには、複製セット内のデータの同期の損失を防止するために、最終的なシャード(断片)に格納されたデータが格納されています部品、調停ノードのタイムスライスに格納されたデータがストレージノードを決定します。
MongoDBは設定結合フラグメントをコピーします
第三に、スライススライス結合;
概要:チップは、文書またはフィールドの複合インデックスにおけるキー属性フィールドで、一度確立、キーが分割に基づいて、データの重要な部分である変更することはできません非常に大きなシーンでなければならないデータ、重要な部分は、断片化の過程で、データの保存場所を決定し、それが直接、クラスタのパフォーマンスに影響します。
注意:キー片が作成され、あなたが支持シートのインデックスキー操作を持っている必要があります。
シャードキーカテゴリ:
1.インクリメンタル枚キー:などを_id、タイムスタンプ、日付、自動インクリメントの主キー、のObjectIdを使用して、そのような書き込み操作キーシートは、スライスサーバに集中して、書き込みが、より大きな圧力につながる単一のサーバーに分散ではありませんしかし、分割することは比較的容易で、このサーバは、パフォーマンスのボトルネックになることができ、
MongoDBは設定結合フラグメントをコピーします
解析:
mongos>はライブラリの名前を使用
。mongos>デシベルコレクション名.ensureIndex({「キー」:1})##インデックスを作成する
mongosを> sh.enableSharding (「ライブラリ名」)##フラグメントライブラリオン
mongos> sh.shardCollection(「ライブラリ名セット名」を、{「キー」:1})##をオンにし、指定されたスライスキーシート設定されている
2ハギリシャのキーシート:また、ハッシュインデックスaを使用するために、ハッシュインデックスと呼ばれます シートとしてプライマーキーフィールド、データは、データをランダムに各タイルサーバを配布するために書き込まれ、ノードでより均等に分散され、圧力は各サーバ上に書き込まに分散されるという利点。しかし、読書は、ランダムであるより多くの断片化を打つかもしれないが、欠点は、範囲を区別することはできません。
MongoDBは設定結合フラグメントをコピーします
3.キーシートの組み合わせ:データベースはキーシート選択キーには適していない、または使用されることを意図キーベース片が小さすぎる(すなわち、唯一の週7日ほど少しの変更変更される場合があります)、他のフィールドは、シートの組み合わせを使用して選択することができますキー、偶数冗長フィールドは、組成物に添加することができる;
MongoDBは設定結合フラグメントをコピーします
4.ラベルシートキー:サーバー指定されたフラグメントに格納されたデータは、フラグメントとしてタグ付けや、10作るよう適切なタグを割り当てるように添加してもよい(T) shard0000、11に表示されます(Q)は、あなたがイコライザは配布を指定するためにタグを使用することができますshard0001またはshard0002に表示されます。
MongoDBは設定結合フラグメントをコピーします

4例:MongoDBの結合フラグメントの複製セット効率ストレージ
MongoDBは設定結合フラグメントをコピーします
MongoDBは設定結合フラグメントをコピーします

実験手順:
ØMongoDBのインストールサービス;
O構成例コンフィグノード;
例としてはshard1構成を(O)
Oを例構成shard2:
入出力スライスし、設定を確認します。

安装mongodb服务:
192.168.100.101、192.168.100.102、192.168.100.103:
[root@config ~]# tar zxvf mongodb-linux-x86_64-rhel70-3.6.3.tgz
[root@config ~]# mv mongodb-linux-x86_64-rhel70-3.6.3 /usr/local/mongodb         
[root@config ~]# echo "export PATH=/usr/local/mongodb/bin:\$PATH" >>/etc/profile
[root@config ~]# source /etc/profile
[root@config ~]# ulimit -n 25000
[root@config ~]# ulimit -u 25000 
[root@config ~]# echo 0 >/proc/sys/vm/zone_reclaim_mode 
[root@config ~]# sysctl -w vm.zone_reclaim_mode=0
[root@config ~]# echo never >/sys/kernel/mm/transparent_hugepage/enabled 
[root@config ~]# echo never >/sys/kernel/mm/transparent_hugepage/defrag
[root@config ~]# cd /usr/local/mongodb/bin/
[root@config bin]# mkdir {../mongodb1,../mongodb2,../mongodb3}
[root@config bin]# mkdir ../logs
[root@config bin]# touch ../logs/mongodb{1..3}.log
[root@config bin]# chmod 777 ../logs/mongodb*

配置config节点的实例:
192.168.100.101:
[root@config bin]# cat <<END >>/usr/local/mongodb/bin/mongodb1.conf
bind_ip=192.168.100.101
port=27017
dbpath=/usr/local/mongodb/mongodb1/
logpath=/usr/local/mongodb/logs/mongodb1.log
logappend=true
fork=true
maxConns=5000
replSet=configs
#replication name
configsvr=true
END
注解:
#日志文件位置
logpath=/data/db/journal/mongodb.log  (这些都是可以自定义修改的)

# 以追加方式写入日志
logappend=true

# 是否以守护进程方式运行
fork = true

# 默认27017
#port = 27017

# 数据库文件位置
dbpath=/data/db

# 启用定期记录CPU利用率和 I/O 等待
#cpu = true

# 是否以安全认证方式运行,默认是不认证的非安全方式
#noauth = true
#auth = true

# 详细记录输出
#verbose = true

# Inspect all client data for validity on receipt (useful for
# developing drivers)用于开发驱动程序时验证客户端请求
#objcheck = true

# Enable db quota management
# 启用数据库配额管理
#quota = true

# 设置oplog记录等级
# Set oplogging level where n is
#   0=off (default)
#   1=W
#   2=R
#   3=both
#   7=W+some reads
#diaglog=0

# Diagnostic/debugging option 动态调试项
#nocursors = true

# Ignore query hints 忽略查询提示
#nohints = true

# 禁用http界面,默认为localhost:28017
#nohttpinterface = true

# 关闭服务器端脚本,这将极大的限制功能
# Turns off server-side scripting.  This will result in greatly limited
# functionality
#noscripting = true

# 关闭扫描表,任何查询将会是扫描失败
# Turns off table scans.  Any query that would do a table scan fails.
#notablescan = true

# 关闭数据文件预分配
# Disable data file preallocation.
#noprealloc = true

# 为新数据库指定.ns文件的大小,单位:MB
# Specify .ns file size for new databases.
# nssize =
# Replication Options 复制选项
# in replicated mongo databases, specify the replica set name here
#replSet=setname
# maximum size in megabytes for replication operation log
#oplogSize=1024
# path to a key file storing authentication info for connections
# between replica set members

#指定存储身份验证信息的密钥文件的路径
#keyFile=/path/to/keyfile
[root@config bin]# cat <<END >>/usr/local/mongodb/bin/mongodb2.conf
bind_ip=192.168.100.101
port=27018
dbpath=/usr/local/mongodb/mongodb2/
logpath=/usr/local/mongodb/logs/mongodb2.log
logappend=true
fork=true
maxConns=5000
replSet=configs
configsvr=true
END
[root@config bin]# cat <<END >>/usr/local/mongodb/bin/mongodb3.conf
bind_ip=192.168.100.101
port=27019
dbpath=/usr/local/mongodb/mongodb3/
logpath=/usr/local/mongodb/logs/mongodb3.log
logappend=true
fork=true
maxConns=5000
replSet=configs
configsvr=true
END
[root@config bin]# cd
[root@config ~]# mongod -f  /usr/local/mongodb/bin/mongodb1.conf
[root@config ~]# mongod -f  /usr/local/mongodb/bin/mongodb2.conf
[root@config ~]# mongod -f  /usr/local/mongodb/bin/mongodb3.conf
[root@config ~]# netstat -utpln |grep mongod
tcp        0      0 192.168.100.101:27019   0.0.0.0:*               LISTEN      2271/mongod              
tcp        0      0 192.168.100.101:27017   0.0.0.0:*               LISTEN      2440/mongod         
tcp        0      0 192.168.100.101:27018   0.0.0.0:*               LISTEN      1412/mongod  
[root@config ~]# echo -e "/usr/local/mongodb/bin/mongod -f  /usr/local/mongodb/bin/mongodb1.conf \n/usr/local/mongodb/bin/mongod -f  /usr/local/mongodb/bin/mongodb2.conf\n/usr/local/mongodb/bin/mongod -f  /usr/local/mongodb/bin/mongodb3.conf">>/etc/rc.local
[root@config ~]# chmod +x /etc/rc.local
[root@config ~]# cat <<END >>/etc/init.d/mongodb
#!/bin/bash
INSTANCE=\$1
ACTION=\$2
case "\$ACTION" in
'start')
/usr/local/mongodb/bin/mongod -f /usr/local/mongodb/bin/"\$INSTANCE".conf;;
'stop')
/usr/local/mongodb/bin/mongod -f /usr/local/mongodb/bin/"\$INSTANCE".conf --shutdown;;
'restart')
/usr/local/mongodb/bin/mongod -f /usr/local/mongodb/bin/"\$INSTANCE".conf --shutdown
/usr/local/mongodb/bin/mongod -f /usr/local/mongodb/bin/"\$INSTANCE".conf;;
esac
END
[root@config ~]# chmod +x /etc/init.d/mongodb
[root@config ~]# mongo --port 27017 --host 192.168.100.101
> cfg={"_id":"configs","members":[{"_id":0,"host":"192.168.100.101:27017"},{"_id":1,"host":"192.168.100.101:27018"},{"_id":2,"host":"192.168.100.101:27019"}]}
> rs.initiate(cfg)
configs:PRIMARY> rs.status()
{
    "set" : "configs",
    "date" : ISODate("2018-04-24T18:53:44.375Z"),
    "myState" : 1,
    "term" : NumberLong(1),
    "configsvr" : true,
    "heartbeatIntervalMillis" : NumberLong(2000),
    "optimes" : {
        "lastCommittedOpTime" : {
            "ts" : Timestamp(1524596020, 1),
            "t" : NumberLong(1)
        },
        "readConcernMajorityOpTime" : {
            "ts" : Timestamp(1524596020, 1),
            "t" : NumberLong(1)
        },
        "appliedOpTime" : {
            "ts" : Timestamp(1524596020, 1),
            "t" : NumberLong(1)
        },
        "durableOpTime" : {
            "ts" : Timestamp(1524596020, 1),
            "t" : NumberLong(1)
        }
    },
    "members" : [
        {
            "_id" : 0,
            "name" : "192.168.100.101:27017",
            "health" : 1,
            "state" : 1,
            "stateStr" : "PRIMARY",
            "uptime" : 6698,
            "optime" : {
                "ts" : Timestamp(1524596020, 1),
                "t" : NumberLong(1)
            },
            "optimeDate" : ISODate("2018-04-24T18:53:40Z"),
            "electionTime" : Timestamp(1524590293, 1),
            "electionDate" : ISODate("2018-04-24T17:18:13Z"),
            "configVersion" : 1,
            "self" : true
        },
        {
            "_id" : 1,
            "name" : "192.168.100.101:27018",
            "health" : 1,
            "state" : 2,
            "stateStr" : "SECONDARY",
            "uptime" : 5741,
            "optime" : {
                "ts" : Timestamp(1524596020, 1),
                "t" : NumberLong(1)
            },
            "optimeDurable" : {
                "ts" : Timestamp(1524596020, 1),
                "t" : NumberLong(1)
            },
            "optimeDate" : ISODate("2018-04-24T18:53:40Z"),
            "optimeDurableDate" : ISODate("2018-04-24T18:53:40Z"),
            "lastHeartbeat" : ISODate("2018-04-24T18:53:42.992Z"),
            "lastHeartbeatRecv" : ISODate("2018-04-24T18:53:43.742Z"),
            "pingMs" : NumberLong(0),
            "syncingTo" : "192.168.100.101:27017",
            "configVersion" : 1
        },
        {
            "_id" : 2,
            "name" : "192.168.100.101:27019",
            "health" : 1,
            "state" : 2,
            "stateStr" : "SECONDARY",
            "uptime" : 5741,
            "optime" : {
                "ts" : Timestamp(1524596020, 1),
                "t" : NumberLong(1)
            },
            "optimeDurable" : {
                "ts" : Timestamp(1524596020, 1),
                "t" : NumberLong(1)
            },
            "optimeDate" : ISODate("2018-04-24T18:53:40Z"),
            "optimeDurableDate" : ISODate("2018-04-24T18:53:40Z"),
            "lastHeartbeat" : ISODate("2018-04-24T18:53:42.992Z"),
            "lastHeartbeatRecv" : ISODate("2018-04-24T18:53:43.710Z"),
            "pingMs" : NumberLong(0),
            "syncingTo" : "192.168.100.101:27017",
            "configVersion" : 1
        }
    ],
    "ok" : 1,
    "operationTime" : Timestamp(1524596020, 1),
    "$gleStats" : {
        "lastOpTime" : Timestamp(0, 0),
        "electionId" : ObjectId("7fffffff0000000000000001")
    },
    "$clusterTime" : {
        "clusterTime" : Timestamp(1524596020, 1),
        "signature" : {
            "hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
            "keyId" : NumberLong(0)
        }
    }
}
configs:PRIMARY> show dbs
admin   0.000GB
config  0.000GB
local   0.000GB
configs:PRIMARY> exit

[root@config bin]# cat <<END >>/usr/local/mongodb/bin/mongos.conf
bind_ip=192.168.100.101
port=27025
logpath=/usr/local/mongodb/logs/mongodbs.log
fork=true
maxConns=5000
configdb=configs/192.168.100.101:27017,192.168.100.101:27018,192.168.100.101:27019
END
注:mongos的configdb参数只能指定一个(复制集中的primary)或多个(复制集中的全部节点);

[root@config bin]# touch ../logs/mongos.log
[root@config bin]# chmod 777 ../logs/mongos.log
[root@config bin]# mongos -f /usr/local/mongodb/bin/mongos.conf 
about to fork child process, waiting until server is ready for connections.
forked process: 1562
child process started successfully, parent exiting
[root@config ~]# netstat -utpln |grep mongo
tcp        0      0 192.168.100.101:27019   0.0.0.0:*               LISTEN      1601/mongod         
tcp        0      0 192.168.100.101:27020   0.0.0.0:*               LISTEN      1345/mongod         
tcp        0      0 192.168.100.101:27025   0.0.0.0:*               LISTEN      1822/mongos         
tcp        0      0 192.168.100.101:27017   0.0.0.0:*               LISTEN      1437/mongod         
tcp        0      0 192.168.100.101:27018   0.0.0.0:*               LISTEN      1541/mongod 

配置shard1的实例:
192.168.100.102:
[root@shard1 bin]# cat <<END >>/usr/local/mongodb/bin/mongodb1.conf
bind_ip=192.168.100.102
port=27017
dbpath=/usr/local/mongodb/mongodb1/
logpath=/usr/local/mongodb/logs/mongodb1.log
logappend=true
fork=true
maxConns=5000
replSet=shard1
#replication name
shardsvr=true
END
[root@shard1 bin]# cat <<END >>/usr/local/mongodb/bin/mongodb2.conf
bind_ip=192.168.100.102
port=27018
dbpath=/usr/local/mongodb/mongodb2/
logpath=/usr/local/mongodb/logs/mongodb2.log
logappend=true
fork=true
maxConns=5000
replSet=shard1
shardsvr=true
END
[root@shard1 bin]# cat <<END >>/usr/local/mongodb/bin/mongodb3.conf
bind_ip=192.168.100.102
port=27019
dbpath=/usr/local/mongodb/mongodb3/
logpath=/usr/local/mongodb/logs/mongodb3.log
logappend=true
fork=true
maxConns=5000
replSet=shard1
shardsvr=true
END
[root@shard1 bin]# cd
[root@shard1 ~]# mongod -f  /usr/local/mongodb/bin/mongodb1.conf
[root@shard1 ~]# mongod -f  /usr/local/mongodb/bin/mongodb2.conf
[root@shard1 ~]# mongod -f  /usr/local/mongodb/bin/mongodb3.conf
[root@shard1 ~]# netstat -utpln |grep mongod
tcp        0      0 192.168.100.101:27019   0.0.0.0:*               LISTEN      2271/mongod              
tcp        0      0 192.168.100.101:27017   0.0.0.0:*               LISTEN      2440/mongod         
tcp        0      0 192.168.100.101:27018   0.0.0.0:*               LISTEN      1412/mongod  
[root@shard1 ~]# echo -e "/usr/local/mongodb/bin/mongod -f  /usr/local/mongodb/bin/mongodb1.conf \n/usr/local/mongodb/bin/mongod -f  /usr/local/mongodb/bin/mongodb2.conf\n/usr/local/mongodb/bin/mongod -f  /usr/local/mongodb/bin/mongodb3.conf">>/etc/rc.local
[root@shard1 ~]# chmod +x /etc/rc.local
[root@shard1 ~]# cat <<END >>/etc/init.d/mongodb
#!/bin/bash
INSTANCE=\$1
ACTION=\$2
case "\$ACTION" in
'start')
/usr/local/mongodb/bin/mongod -f /usr/local/mongodb/bin/"\$INSTANCE".conf;;
'stop')
/usr/local/mongodb/bin/mongod -f /usr/local/mongodb/bin/"\$INSTANCE".conf --shutdown;;
'restart')
/usr/local/mongodb/bin/mongod -f /usr/local/mongodb/bin/"\$INSTANCE".conf --shutdown
/usr/local/mongodb/bin/mongod -f /usr/local/mongodb/bin/"\$INSTANCE".conf;;
esac
END
[root@shard1 ~]# chmod +x /etc/init.d/mongodb
[root@shard1 ~]# mongo --port 27017 --host 192.168.100.102
>cfg={"_id":"shard1","members":[{"_id":0,"host":"192.168.100.102:27017"},{"_id":1,"host":"192.168.100.102:27018"},{"_id":2,"host":"192.168.100.102:27019"}]}
> rs.initiate(cfg)
{ "ok" : 1 }
shard1:PRIMARY> rs.status()
{
    "set" : "shard1",
    "date" : ISODate("2018-04-24T19:06:53.160Z"),
    "myState" : 1,
    "term" : NumberLong(1),
    "heartbeatIntervalMillis" : NumberLong(2000),
    "optimes" : {
        "lastCommittedOpTime" : {
            "ts" : Timestamp(1524596810, 1),
            "t" : NumberLong(1)
        },
        "readConcernMajorityOpTime" : {
            "ts" : Timestamp(1524596810, 1),
            "t" : NumberLong(1)
        },
        "appliedOpTime" : {
            "ts" : Timestamp(1524596810, 1),
            "t" : NumberLong(1)
        },
        "durableOpTime" : {
            "ts" : Timestamp(1524596810, 1),
            "t" : NumberLong(1)
        }
    },
    "members" : [
        {
            "_id" : 0,
            "name" : "192.168.100.102:27017",
            "health" : 1,
            "state" : 1,
            "stateStr" : "PRIMARY",
            "uptime" : 6648,
            "optime" : {
                "ts" : Timestamp(1524596810, 1),
                "t" : NumberLong(1)
            },
            "optimeDate" : ISODate("2018-04-24T19:06:50Z"),
            "electionTime" : Timestamp(1524590628, 1),
            "electionDate" : ISODate("2018-04-24T17:23:48Z"),
            "configVersion" : 1,
            "self" : true
        },
        {
            "_id" : 1,
            "name" : "192.168.100.102:27018",
            "health" : 1,
            "state" : 2,
            "stateStr" : "SECONDARY",
            "uptime" : 6195,
            "optime" : {
                "ts" : Timestamp(1524596810, 1),
                "t" : NumberLong(1)
            },
            "optimeDurable" : {
                "ts" : Timestamp(1524596810, 1),
                "t" : NumberLong(1)
            },
            "optimeDate" : ISODate("2018-04-24T19:06:50Z"),
            "optimeDurableDate" : ISODate("2018-04-24T19:06:50Z"),
            "lastHeartbeat" : ISODate("2018-04-24T19:06:52.176Z"),
            "lastHeartbeatRecv" : ISODate("2018-04-24T19:06:52.626Z"),
            "pingMs" : NumberLong(0),
            "syncingTo" : "192.168.100.102:27017",
            "configVersion" : 1
        },
        {
            "_id" : 2,
            "name" : "192.168.100.102:27019",
            "health" : 1,
            "state" : 2,
            "stateStr" : "SECONDARY",
            "uptime" : 6195,
            "optime" : {
                "ts" : Timestamp(1524596810, 1),
                "t" : NumberLong(1)
            },
            "optimeDurable" : {
                "ts" : Timestamp(1524596810, 1),
                "t" : NumberLong(1)
            },
            "optimeDate" : ISODate("2018-04-24T19:06:50Z"),
            "optimeDurableDate" : ISODate("2018-04-24T19:06:50Z"),
            "lastHeartbeat" : ISODate("2018-04-24T19:06:52.177Z"),
            "lastHeartbeatRecv" : ISODate("2018-04-24T19:06:52.626Z"),
            "pingMs" : NumberLong(0),
            "syncingTo" : "192.168.100.102:27017",
            "configVersion" : 1
        }
    ],
    "ok" : 1
}
shard1:PRIMARY> show dbs
admin   0.000GB
config  0.000GB
local   0.000GB
shard1:PRIMARY> exit

[root@shard1 bin]# cat <<END >>/usr/local/mongodb/bin/mongos.conf
bind_ip=192.168.100.102
port=27025
logpath=/usr/local/mongodb/logs/mongodbs.log
fork=true
maxConns=5000
configdb=configs/192.168.100.101:27017,192.168.100.101:27018,192.168.100.101:27019
END
[root@shard1 bin]# touch ../logs/mongos.log
[root@shard1 bin]# chmod 777 ../logs/mongos.log
[root@shard1 bin]# mongos -f /usr/local/mongodb/bin/mongos.conf 
about to fork child process, waiting until server is ready for connections.
forked process: 1562
child process started successfully, parent exiting
[root@shard1 ~]# netstat -utpln| grep mongo
tcp        0      0 192.168.100.102:27019   0.0.0.0:*               LISTEN      1098/mongod         
tcp        0      0 192.168.100.102:27020   0.0.0.0:*               LISTEN      1125/mongod         
tcp        0      0 192.168.100.102:27025   0.0.0.0:*               LISTEN      1562/mongos         
tcp        0      0 192.168.100.102:27017   0.0.0.0:*               LISTEN      1044/mongod         
tcp        0      0 192.168.100.102:27018   0.0.0.0:*               LISTEN      1071/mongod 

配置shard2的实例:
192.168.100.103:
[root@shard2 bin]# cat <<END >>/usr/local/mongodb/bin/mongodb1.conf
bind_ip=192.168.100.103
port=27017
dbpath=/usr/local/mongodb/mongodb1/
logpath=/usr/local/mongodb/logs/mongodb1.log
logappend=true
fork=true
maxConns=5000
replSet=shard2
#replication name
shardsvr=true
END
[root@shard2 bin]# cat <<END >>/usr/local/mongodb/bin/mongodb2.conf
bind_ip=192.168.100.103
port=27018
dbpath=/usr/local/mongodb/mongodb2/
logpath=/usr/local/mongodb/logs/mongodb2.log
logappend=true
fork=true
maxConns=5000
replSet=shard2
shardsvr=true
END
[root@shard2 bin]# cat <<END >>/usr/local/mongodb/bin/mongodb3.conf
bind_ip=192.168.100.103
port=27019
dbpath=/usr/local/mongodb/mongodb3/
logpath=/usr/local/mongodb/logs/mongodb3.log
logappend=true
fork=true
maxConns=5000
replSet=shard2
shardsvr=true
END
[root@shard2 bin]# cd
[root@shard2 ~]# mongod -f  /usr/local/mongodb/bin/mongodb1.conf
[root@shard2 ~]# mongod -f  /usr/local/mongodb/bin/mongodb2.conf
[root@shard2 ~]# mongod -f  /usr/local/mongodb/bin/mongodb3.conf
[root@shard2 ~]# netstat -utpln |grep mongod
tcp        0      0 192.168.100.101:27019   0.0.0.0:*               LISTEN      2271/mongod              
tcp        0      0 192.168.100.101:27017   0.0.0.0:*               LISTEN      2440/mongod         
tcp        0      0 192.168.100.101:27018   0.0.0.0:*               LISTEN      1412/mongod  
[root@shard2 ~]# echo -e "/usr/local/mongodb/bin/mongod -f  /usr/local/mongodb/bin/mongodb1.conf \n/usr/local/mongodb/bin/mongod -f  /usr/local/mongodb/bin/mongodb2.conf\n/usr/local/mongodb/bin/mongod -f  /usr/local/mongodb/bin/mongodb3.conf">>/etc/rc.local
[root@shard2 ~]# chmod +x /etc/rc.local
[root@shard2 ~]# cat <<END >>/etc/init.d/mongodb
#!/bin/bash
INSTANCE=\$1
ACTION=\$2
case "\$ACTION" in
'start')
/usr/local/mongodb/bin/mongod -f /usr/local/mongodb/bin/"\$INSTANCE".conf;;
'stop')
/usr/local/mongodb/bin/mongod -f /usr/local/mongodb/bin/"\$INSTANCE".conf --shutdown;;
'restart')
/usr/local/mongodb/bin/mongod -f /usr/local/mongodb/bin/"\$INSTANCE".conf --shutdown
/usr/local/mongodb/bin/mongod -f /usr/local/mongodb/bin/"\$INSTANCE".conf;;
esac
END
[root@shard2 ~]# chmod +x /etc/init.d/mongodb
[root@shard2 ~]# mongo --port 27017 --host 192.168.100.103
>cfg={"_id":"shard2","members":[{"_id":0,"host":"192.168.100.103:27017"},{"_id":1,"host":"192.168.100.103:27018"},{"_id":2,"host":"192.168.100.103:27019"}]}
> rs.initiate(cfg)
{ "ok" : 1 }
shard2:PRIMARY> rs.status()
{
    "set" : "shard2",
    "date" : ISODate("2018-04-24T19:06:53.160Z"),
    "myState" : 1,
    "term" : NumberLong(1),
    "heartbeatIntervalMillis" : NumberLong(2000),
    "optimes" : {
        "lastCommittedOpTime" : {
            "ts" : Timestamp(1524596810, 1),
            "t" : NumberLong(1)
        },
        "readConcernMajorityOpTime" : {
            "ts" : Timestamp(1524596810, 1),
            "t" : NumberLong(1)
        },
        "appliedOpTime" : {
            "ts" : Timestamp(1524596810, 1),
            "t" : NumberLong(1)
        },
        "durableOpTime" : {
            "ts" : Timestamp(1524596810, 1),
            "t" : NumberLong(1)
        }
    },
    "members" : [
        {
            "_id" : 0,
            "name" : "192.168.100.103:27017",
            "health" : 1,
            "state" : 1,
            "stateStr" : "PRIMARY",
            "uptime" : 6648,
            "optime" : {
                "ts" : Timestamp(1524596810, 1),
                "t" : NumberLong(1)
            },
            "optimeDate" : ISODate("2018-04-24T19:06:50Z"),
            "electionTime" : Timestamp(1524590628, 1),
            "electionDate" : ISODate("2018-04-24T17:23:48Z"),
            "configVersion" : 1,
            "self" : true
        },
        {
            "_id" : 1,
            "name" : "192.168.100.103:27018",
            "health" : 1,
            "state" : 2,
            "stateStr" : "SECONDARY",
            "uptime" : 6195,
            "optime" : {
                "ts" : Timestamp(1524596810, 1),
                "t" : NumberLong(1)
            },
            "optimeDurable" : {
                "ts" : Timestamp(1524596810, 1),
                "t" : NumberLong(1)
            },
            "optimeDate" : ISODate("2018-04-24T19:06:50Z"),
            "optimeDurableDate" : ISODate("2018-04-24T19:06:50Z"),
            "lastHeartbeat" : ISODate("2018-04-24T19:06:52.176Z"),
            "lastHeartbeatRecv" : ISODate("2018-04-24T19:06:52.626Z"),
            "pingMs" : NumberLong(0),
            "syncingTo" : "192.168.100.103:27017",
            "configVersion" : 1
        },
        {
            "_id" : 2,
            "name" : "192.168.100.103:27019",
            "health" : 1,
            "state" : 2,
            "stateStr" : "SECONDARY",
            "uptime" : 6195,
            "optime" : {
                "ts" : Timestamp(1524596810, 1),
                "t" : NumberLong(1)
            },
            "optimeDurable" : {
                "ts" : Timestamp(1524596810, 1),
                "t" : NumberLong(1)
            },
            "optimeDate" : ISODate("2018-04-24T19:06:50Z"),
            "optimeDurableDate" : ISODate("2018-04-24T19:06:50Z"),
            "lastHeartbeat" : ISODate("2018-04-24T19:06:52.177Z"),
            "lastHeartbeatRecv" : ISODate("2018-04-24T19:06:52.626Z"),
            "pingMs" : NumberLong(0),
            "syncingTo" : "192.168.100.103:27017",
            "configVersion" : 1
        }
    ],
    "ok" : 1
}
shard2:PRIMARY> show dbs
admin   0.000GB
config  0.000GB
local   0.000GB
shard2:PRIMARY> exit

[root@shard2 bin]# cat <<END >>/usr/local/mongodb/bin/mongos.conf
bind_ip=192.168.100.103
port=27025
logpath=/usr/local/mongodb/logs/mongodbs.log
fork=true
maxConns=5000
configdb=configs/192.168.100.101:27017,192.168.100.101:27018,192.168.100.101:27019
END
[root@shard2 bin]# touch ../logs/mongos.log
[root@shard2 bin]# chmod 777 ../logs/mongos.log
[root@shard2 bin]# mongos -f /usr/local/mongodb/bin/mongos.conf 
about to fork child process, waiting until server is ready for connections.
forked process: 1562
child process started successfully, parent exiting
[root@shard2 ~]# netstat -utpln |grep mongo
tcp        0      0 192.168.100.103:27019   0.0.0.0:*               LISTEN      1095/mongod         
tcp        0      0 192.168.100.103:27020   0.0.0.0:*               LISTEN      1122/mongod         
tcp        0      0 192.168.100.103:27025   0.0.0.0:*               LISTEN      12122/mongos        
tcp        0      0 192.168.100.103:27017   0.0.0.0:*               LISTEN      1041/mongod         
tcp        0      0 192.168.100.103:27018   0.0.0.0:*               LISTEN      1068/mongod 

配置分片并验证:
192.168.100.101(随意选择mongos进行设置分片,三台mongos会同步以下操作):
[root@config ~]# mongo --port 27025 --host 192.168.100.101
mongos> use admin;
switched to db admin
mongos> sh.status()
--- Sharding Status --- 
  sharding version: {
    "_id" : 1,
    "minCompatibleVersion" : 5,
    "currentVersion" : 6,
    "clusterId" : ObjectId("5adf66d7518b3e5b3aad4e77")
  }
  shards:
  active mongoses:
        "3.6.3" : 1
  autosplit:
        Currently enabled: yes
  balancer:
        Currently enabled:  yes
        Currently running:  no
        Failed balancer rounds in last 5 attempts:  0
        Migration Results for the last 24 hours: 
                No recent migrations
  databases:
        {  "_id" : "config",  "primary" : "config",  "partitioned" : true }
mongos>
sh.addShard("shard1/192.168.100.102:27017,192.168.100.102:27018,192.168.100.102:27019")
{
    "shardAdded" : "shard1",
    "ok" : 1,
    "$clusterTime" : {
        "clusterTime" : Timestamp(1524598580, 9),
        "signature" : {
            "hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
            "keyId" : NumberLong(0)
        }
    },
    "operationTime" : Timestamp(1524598580, 9)
}
mongos> sh.addShard("shard2/192.168.100.103:27017,192.168.100.103:27018,192.168.100.103:27019")
{
    "shardAdded" : "shard2",
    "ok" : 1,
    "$clusterTime" : {
        "clusterTime" : Timestamp(1524598657, 7),
        "signature" : {
            "hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
            "keyId" : NumberLong(0)
        }
    },
    "operationTime" : Timestamp(1524598657, 7)
}
mongos> sh.status()
--- Sharding Status --- 
  sharding version: {
    "_id" : 1,
    "minCompatibleVersion" : 5,
    "currentVersion" : 6,
    "clusterId" : ObjectId("5adf66d7518b3e5b3aad4e77")
  }
  shards:
        {  "_id" : "shard1",  "host" : "shard1/192.168.100.102:27017,192.168.100.102:27018,192.168.100.102:27019",  "state" : 1 }
        {  "_id" : "shard2",  "host" : "shard2/192.168.100.103:27017,192.168.100.103:27018,192.168.100.103:27019",  "state" : 1 }
  active mongoses:
        "3.6.3" : 1
  autosplit:
        Currently enabled: yes
  balancer:
        Currently enabled:  yes
        Currently running:  no
        Failed balancer rounds in last 5 attempts:  0
        Migration Results for the last 24 hours: 
                No recent migrations
  databases:
        {  "_id" : "config",  "primary" : "config",  "partitioned" : true }

注:目前配置服务、路由服务、分片服务、副本集服务都已经串联起来了,但我们的目的是希望插入数据,数据能够自动分片。连接在mongos上,准备让指定的数据库、指定的集合分片生效。
[root@config ~]# mongo --port 27025 --host 192.168.100.101
mongos> use admin
mongos> sh.enableSharding("testdb")     ##开启数据库的分片
{
    "ok" : 1,
    "$clusterTime" : {
        "clusterTime" : Timestamp(1524599672, 13),
        "signature" : {
            "hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
            "keyId" : NumberLong(0)
        }
    },
    "operationTime" : Timestamp(1524599672, 13)
mongos> sh.status()
--- Sharding Status --- 
  sharding version: {
    "_id" : 1,
    "minCompatibleVersion" : 5,
    "currentVersion" : 6,
    "clusterId" : ObjectId("5adf66d7518b3e5b3aad4e77")
  }
  shards:
        {  "_id" : "shard1",  "host" : "shard1/192.168.100.102:27017,192.168.100.102:27018,192.168.100.102:27019",  "state" : 1 }
        {  "_id" : "shard2",  "host" : "shard2/192.168.100.103:27017,192.168.100.103:27018,192.168.100.103:27019",  "state" : 1 }
  active mongoses:
        "3.6.3" : 1
  autosplit:
        Currently enabled: yes
  balancer:
        Currently enabled:  yes
        Currently running:  no
        Failed balancer rounds in last 5 attempts:  0
        Migration Results for the last 24 hours: 
                No recent migrations
  databases:
        {  "_id" : "config",  "primary" : "config",  "partitioned" : true }
                config.system.sessions
                        shard key: { "_id" : 1 }
                        unique: false
                        balancing: true
                        chunks:
                                shard1  1
                        { "_id" : { "$minKey" : 1 } } -->> { "_id" : { "$maxKey" : 1 } } on : shard1 Timestamp(1, 0) 
        {  "_id" : "testdb",  "primary" : "shard2",  "partitioned" : true }
mongos> db.runCommand({shardcollection:"testdb.table1", key:{_id:1}});          ##开启数据库中集合的分片
{
    "collectionsharded" : "testdb.table1",
    "collectionUUID" : UUID("883bb1e2-b218-41ab-8122-6a5cf4df5e7b"),
    "ok" : 1,
    "$clusterTime" : {
        "clusterTime" : Timestamp(1524601471, 14),
        "signature" : {
            "hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
            "keyId" : NumberLong(0)
        }
    },
    "operationTime" : Timestamp(1524601471, 14)
}
mongos> use testdb;
mongos> for(i=1;i<=10000;i++){db.table1.insert({"id":i,"name":"huge"})};
WriteResult({ "nInserted" : 1 })
mongos> show collections
table1
mongos> db.table1.count()
10000
mongos> sh.status()
--- Sharding Status --- 
  sharding version: {
    "_id" : 1,
    "minCompatibleVersion" : 5,
    "currentVersion" : 6,
    "clusterId" : ObjectId("5adf66d7518b3e5b3aad4e77")
  }
  shards:
        {  "_id" : "shard1",  "host" : "shard1/192.168.100.102:27017,192.168.100.102:27018,192.168.100.102:27019",  "state" : 1 }
        {  "_id" : "shard2",  "host" : "shard2/192.168.100.103:27017,192.168.100.103:27018,192.168.100.103:27019",  "state" : 1 }
  active mongoses:
        "3.6.3" : 1
  autosplit:
        Currently enabled: yes
  balancer:
        Currently enabled:  yes
        Currently running:  no
        Failed balancer rounds in last 5 attempts:  0
        Migration Results for the last 24 hours: 
                No recent migrations
  databases:
        {  "_id" : "config",  "primary" : "config",  "partitioned" : true }
                config.system.sessions
                        shard key: { "_id" : 1 }
                        unique: false
                        balancing: true
                        chunks:
                                shard1  1
                        { "_id" : { "$minKey" : 1 } } -->> { "_id" : { "$maxKey" : 1 } } on : shard1 Timestamp(1, 0) 
        {  "_id" : "testdb",  "primary" : "shard2",  "partitioned" : true }
                testdb.table1
                        shard key: { "_id" : 1 }
                        unique: false
                        balancing: true
                        chunks:
                                shard2  1
                        { "_id" : { "$minKey" : 1 } } -->> { "_id" : { "$maxKey" : 1 } } on : shard2 Timestamp(1, 0)
mongos> use admin
switched to db admin
mongos> sh.enableSharding("testdb2")
{
    "ok" : 1,
    "$clusterTime" : {
        "clusterTime" : Timestamp(1524602371, 7),
        "signature" : {
            "hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
            "keyId" : NumberLong(0)
        }
    },
    "operationTime" : Timestamp(1524602371, 7)
}
mongos> db.runCommand({shardcollection:"testdb2.table1", key:{_id:1}});
mongos> use testdb2
switched to db testdb2
mongos> for(i=1;i<=10000;i++){db.table1.insert({"id":i,"name":"huge"})};
WriteResult({ "nInserted" : 1 })
mongos> sh.status()
--- Sharding Status --- 
  sharding version: {
    "_id" : 1,
    "minCompatibleVersion" : 5,
    "currentVersion" : 6,
    "clusterId" : ObjectId("5adf66d7518b3e5b3aad4e77")
  }
  shards:
        {  "_id" : "shard1",  "host" : "shard1/192.168.100.102:27017,192.168.100.102:27018,192.168.100.102:27019",  "state" : 1 }
        {  "_id" : "shard2",  "host" : "shard2/192.168.100.103:27017,192.168.100.103:27018,192.168.100.103:27019",  "state" : 1 }
  active mongoses:
        "3.6.3" : 1
  autosplit:
        Currently enabled: yes
  balancer:
        Currently enabled:  yes
        Currently running:  no
        Failed balancer rounds in last 5 attempts:  0
        Migration Results for the last 24 hours: 
                No recent migrations
  databases:
        {  "_id" : "config",  "primary" : "config",  "partitioned" : true }
                config.system.sessions
                        shard key: { "_id" : 1 }
                        unique: false
                        balancing: true
                        chunks:
                                shard1  1
                        { "_id" : { "$minKey" : 1 } } -->> { "_id" : { "$maxKey" : 1 } } on : shard1 Timestamp(1, 0) 
        {  "_id" : "testdb",  "primary" : "shard2",  "partitioned" : true }
                testdb.table1
                        shard key: { "_id" : 1 }
                        unique: false
                        balancing: true
                        chunks:
                                shard2  1
                        { "_id" : { "$minKey" : 1 } } -->> { "_id" : { "$maxKey" : 1 } } on : shard2 Timestamp(1, 0) 

        {  "_id" : "testdb2",  "primary" : "shard1",  "partitioned" : true }
                testdb2.table1
                        shard key: { "_id" : 1 }
                        unique: false
                        balancing: true
                        chunks:
                                shard1  1
                        { "_id" : { "$minKey" : 1 } } -->> { "_id" : { "$maxKey" : 1 } } on : shard1 Timestamp(1, 0)
mongos> db.table1.stats()           ##查看集合的分片情况
{
    "sharded" : true,
    "capped" : false,
    "ns" : "testdb2.table1",
    "count" : 10000,
    "size" : 490000,
    "storageSize" : 167936,
    "totalIndexSize" : 102400,
    "indexSizes" : {
        "_id_" : 102400
    },
    "avgObjSize" : 49,
    "nindexes" : 1,
    "nchunks" : 1,
    "shards" : {
        "shard1" : {
            "ns" : "testdb2.table1",
            "size" : 490000,
            "count" : 10000,
            "avgObjSize" : 49,
            "storageSize" : 167936,
            "capped" : false,
            "wiredTiger" : {
                "metadata" : {
                    "formatVersion" : 1
                },
                "creationString" : 
...

上記構成を表示するために、192.168.100.102と192.168.100.103 mongosノードにログオンし、それは同期を発見された。
は192.168.100.102に設定されたプライマリノードshard1複製を閉じ、mongosアクセス・テスト・データは依然として高可用性複製セットを達成するための問題ではありません;

MongoDBは設定結合フラグメントをコピーします

おすすめ

転載: blog.51cto.com/13528668/2433448