doris を使い始めた後に遭遇するいくつかの問題のまとめ

1. ユーザー 'anonym@null' のアクセスが拒否されました (パスワードを使用: NO)

JDBC が doris データベースにアクセスしてデータをクエリすると、上記のエラーが報告されます. これは、ドライバー クラスの設定エラーです. 解決策は次のとおりです:

JDBC_DRIVER = "com.mysql.cj.jdbc.Driver"; から
JDBC_DRIVER = "com.mysql.jdbc.Driver"; へ

2. 送信フラグメント RPC を待っているときのタイムアウト。待機(秒): 5、ホスト: xxx(ip)

java.sql.BatchUpdateException: timeout when waiting for send fragments RPC. Wait(sec): 5, host: 10.0.102.153
	at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
	at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:62)
	at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)
	at java.lang.reflect.Constructor.newInstance(Constructor.java:423)

バッチでデータを挿入するときにタイムアウト エラーが発生しました。デフォルトのタイムアウト時間は 300 秒です。mysql クライアントにログインし、コマンドを使用して query_timeout パラメータをカスタマイズおよび変更できます。ここで 3000 秒に変更すると、エラーは報告されません。

「%query_timeout%」のような変数を表示します。
SET query_timeout = 3000;

3. JNI の初期化に失敗しました: ライブラリ libjvm.so が見つかりませんでした。

doris 1.2.0 の新しいバージョンをインストールした後、BE ノードが起動に失敗し、次のようなエラーが表示されます。

W1212 05:39:14.999809 117327 doris_main.cpp:382] JNI の初期化に失敗しました: ライブラリ libjvm.so が見つかりませんでした。

その理由は次のとおりです。最新バージョンには、含める必要がある BE および FE インストール ノードに加えて、apache-doris-java-udf-jar-with-dependencies-1.2.0-bin-x86_64.tar.xz ファイルがあります。このファイルで BE ノードは、jar パッケージを解凍して BE の bin パスに配置した後にのみ開始できます。

4. mysql ライブラリからエクスポートされた json ファイルが 100M を超えるとエラーが報告される

このバッチのサイズは、json 型のデータ [149275596] の最大サイズ [104857600] を超えています。ファイルを分割するか、「read_json_by_line」を使用してください",

提案された read_json_by_line パラメータを変更し、再起動すると無効になりました.
100M に対応するパラメータ 104857600 を変更しましたが、有効になりませんでした. 最後に、インポート コマンドに追加されました. 私の json ファイルのインポート コマンドを参照してください:

curl --location-trusted -u root: -H "format: json" -H "fuzzy_parse" -H "exec_mem_limit: 5368709120" -H "strip_outer_array: true" -H "streaming_load_json_max_mb:5000" -T 202212131453.json http: //10.0.102.110:8030/api/DORISDB/wh_ab_base_assetinfo/_stream_load

5. csv 形式のファイルをデータベースにインポートするとエラーが報告される

エラー メッセージのリンクに従って、ブラウザからクエリ エラー メッセージを開きます。最初に少量のデータをインポートしてテストし、エラーの原因が csv ファイルのフィールド数とフィールド長の不一致であるかどうかを確認することをお勧めします。
ソースデータに改行文字があるのでここでエラーを報告します. この改行文字のルールは異なります.手動で置き換えるのは簡単ですが, データ量が100万レベルに達するとさまざまな問題が発生します.複数の英語のコンマを含む行として. はい, このインポート方法はお勧めしません. csvファイル形式は小さいですが、個人的にはエクスポートに適していると思います. (csv ビッグデータ ファイルをインポートするためのより良い解決策があれば、教えていただければ報酬が発生します。)
最近、doris と最初に接触したときにいくつかの問題に遭遇し、研究を開始したばかりです。一緒に学ぶことに興味がありますか?
ここに画像の説明を挿入

おすすめ

転載: blog.csdn.net/qq_42887496/article/details/128381672