データのインポート方法:
インポートと増分インポートの総量:
クエリは、データ検出されたすべてのデータのインポート、deltaImportQueryとdeltaQuery増分インポートの2つのクエリは、必要なデータをインポートし、フルボリュームです。一意データベースID = '$ {dataimporter.delta.idを}識別するフィルタの背後deltaImportQueryは、固定、このIDの後ろにインデックスデータベースIDであるSOLR。その後deltaQueryがデータベースに時間フィールドを更新するだけで必要な追加例えばupdateDate>「$ {dataimporter.last_index_time}」することができ、我々はデータが毎回dataimport.properties confディレクトリインデックスファイルのライブラリを記録しインポートするときポイントは、それが増分索引作成を行うための便宜のために、である、last_index_time =日付、です。限りそこにいくつかのフィールドの更新をしているかのように長い間、我々は、時限増分インデックスがそうであるように、あなたのデータベースに(テーブルがどのupdateDateこのフィールドを更新するフィールドの更新を持たなければならないものとする)の新しい番号を追加すると、あなたが行うことができます各増分は、Solrのクエリを確保することができたときにデータが最新です。
設定と増分インデックスの合計額との間の屈折率の差、データベース内のすべてのデータの総量の最初のインデックスは、インデックスを更新する、唯一の増分インデックス更新データベースのCRUDは増分索引を使用していた、データベース識別子フィールドが存在しなければなりませんデータの変化を表現するために、我々はデータは、Solrにはインクリメンタルタイムスタンプの変化を比較することによって、インデックスを更新するようにも更新されたタイムスタンプを更新していることを示すためにタイムスタンプを使用することができます。
インポートデータインスタンスのSolrのMongoDB
モンゴ・コネクター・プロジェクトのオープンソースのSolrは、増分インポート機能を実現します:
1、クラスタ構成モードの設定のMongoDBのコピー
MongoDBのレプリカセットの構成が正常に開始します。
2、Mongoのコネクタが取り付けられた
取付Pythonの使用: '[MongoのコネクタをインストールPIPのSolr]'
3、Solrの設定solrconfig.xml:
<requestHandler name="/admin/luke" class="org.apache.solr.handler.admin.LukeRequestHandler" />
solr配置managed-schema:
<uniqueKey>id</uniqueKey>
//修改为
<uniqueKey>_id</uniqueKey>
//添加
<field name="_id" type="string" indexed="true" stored="true" />
<field name="name" type="string" indexed="true" stored="true" />
<field name="area" type="string" indexed="true" stored="true"/>
//注释原有的
<field name="id" type="string" indexed="true" stored="true" required="true" multiValued="false" />
4.一度、以下のアドレスに移動、設定され、JSONデータの成功があります:
http://127.0.0.1:20001/solr/test01/admin/luke?show=schema&wt=json
5、接続構成
ディレクトリのmongo-コネクタには、次のコマンドを入力します。
Mongoのコネクタを---自動コミット・インターバル127.0.0.1:27111 -m = 0 -t http://127.0.0.1:20001/solr/test01 -d solr_doc_manager
6、モンゴデータベースの挿入データ:
7、Solrのクエリデータ:以下のデータは、MongoDBのに成功導入のSolrを表し