wget は、Linux で最も一般的に使用されるダウンロード コマンドです。一般的な使用方法は、wget + スペース + ダウンロードするファイルの URL パスです。
例: # wget http://www.linuxsense.org/xxxx/xxx.tar.gz
-c パラメーターについて簡単に説明します。これも非常に一般的です。ブレークポイントからダウンロードを続行できます。誤って終了した場合は、コマンドを使用してダウンロードを続行できます。
例: # wget -c http://www.linuxsense.org/xxxx/xxx.tar.gz
wget の使用法については、以下で詳しく説明します。
wget は、Web からファイルを自動的にダウンロードするための無料のツールです。HTTP、HTTPS、および FTP プロトコルをサポートし、HTTP プロキシを使用できます。
いわゆる自動ダウンロードとは、ユーザーがシステムを終了した後、バックグラウンドで wget を実行できることを意味します。つまり、システムにログインして wget ダウンロード タスクを開始し、システムからログアウトすると、タスクが完了するまで wget がバックグラウンドで実行されます。
wget は、HTML ページのリンクをたどってダウンロードし、リモート サーバーのローカル バージョンを作成して、元のサイトのディレクトリ構造を完全に再構築することができます。これは、「再帰的ダウンロード」と呼ばれることがよくあります。再帰的にダウンロードする場合、wget は Robot Exclusion 標準 (/robots.txt) に従います.Wget は、オフライン ブラウジングを容易にするために、ダウンロード中にローカル ファイルを指すようにリンクを変換できます。
wget は非常に安定しており、狭い帯域幅や不安定なネットワークの場合に強い適応力を持っています. ネットワークの理由でダウンロードが失敗した場合、wget はファイル全体がダウンロードされるまで試行を続けます. サーバーがダウンロード プロセスを中断した場合、サーバーは再びサーバーに接続し、中断したところからダウンロードを続行します。これは、接続時間が限られているサーバーから大きなファイルをダウンロードする場合に便利です。
wget の一般的な使用法
wgetの使用形式
使い方: wget [オプション]… [URL]…
* wget を使用してサイトのミラーリングを行います。
wget -r -p -np -k http://dsec.pku.edu.cn/~usr_name/
# また
wget -m http://www.tldp.org/LDP/abs/html/
* 部分的にダウンロードされたファイルを不安定なネットワークでダウンロードし、アイドル期間中にダウンロードする
wget -t 0 -w 31 -c http://dsec.pku.edu.cn/BBC.avi -o down.log &
# または filelist からダウンロードするファイルのリストを読み取ります
wget -t 0 -w 31 -c -B ftp://dsec.pku.edu.cn/linuxsoft -i filelist.txt -o down.log &
上記のコードは、ネットワークが比較的アイドル状態のときにダウンロードするためにも使用できます。私の使い方は、mozillaで、その時にダウンロードするのに不便なURLリンクをメモリにコピーしてファイルfilelist.txtに貼り付け、夜にシステムを出る前に上記のコードの2番目の項目を実行します。
* プロキシを使用してダウンロード
wget -Y on -p -k https://sourceforge.net/projects/wvware/
プロキシは環境変数または wgetrc ファイルで設定できます
# 環境変数にプロキシを設定
export PROXY=http://211.90.168.94:8080/
# ~/.wgetrc にプロキシを設定
http_proxy = http://proxy.yoyodyne.com:18023/
ftp_proxy = http://proxy.yoyodyne.com:18023/
wget のさまざまなオプションの分類リスト
* 起動
-V, --version wget のバージョンを表示して終了
-h, --help 構文のヘルプを表示
-b, --background 起動後にバックグラウンド実行に切り替える
-e, --execute=COMMAND コマンドを `.wgetrc' 形式で実行します。wgetrc 形式については、/etc/wgetrc または ~/.wgetrc を参照してください。
* 記録と入力ファイル
-o, --output-file=FILE レコードを FILE ファイルに書き込みます
-a, --append-output=FILE レコードを FILE ファイルに追加します
-d, --debug デバッグ出力を出力
-q, --quiet 静音モード (出力なし)
http://www.itqun.net/content-detail/511328.html
http://www.guanwei.org/post/LINUXnotes/05/Linux-Wget-download-method.html
LINUX コマンド ラインで HTTP 経由でファイルをダウンロードする方法
mrchen による投稿、2010 年 5 月 23 日、ビュー数: 101 元
の記事が転載されている場合は、次のように示してください: Guanwei ブログからの転載 [ http://www.guanwei.org/ ]
この記事のリンク先: http://www.guanwei.org/post/LINUXnotes/05/Linux-Wget-download-method.html
ところで。ftp サーバーにファイルをダウンロードする場合は、ftp コマンドを使用できます。次に、get コマンドを使用してファイルをダウンロードします。
コマンドライン操作が好きで高効率・高速ダウンロードを求める方は、コマンドラインダウンロードツールの利用をお勧めします。コマンド ライン ツールは使いやすいだけでなく、ダウンロード速度とダウンロード効率が高く、特に大量のファイルをダウンロードする場合に適しています。以下では、これらのツールについて詳しく紹介します。
Wget
Wget は、ほとんどの Linux ディストリビューションにデフォルトで含まれている非常に一般的なコマンドライン ダウンロード ツールです。インストールされていない場合は、http://www.gnu.org/software/wget/wget.html で最新バージョンをダウンロードし、次のコマンドを使用してコンパイルおよびインストールできます。
#tar zxvf wget-1.9.1.tar.gz
#cd wget-1.9.1 #./configure
#make #make install
使用方法は非常に簡単です。Wget は次の形式を使用します: #wget [オプション] [ダウンロード アドレス]
1. Wgetの共通パラメータ
◆-b: バックグラウンドでダウンロードします。デフォルトでは、Wget は現在のディレクトリにファイルをダウンロードします。
◆-O:指定したディレクトリにファイルをダウンロードします。
◆-P:ファイルを保存する前に、指定した名前のディレクトリを作成します。
◆-t: 接続試行回数、Wget がサーバーとの接続を確立できない場合、接続を試行する回数。
◆ -c: ブレークポイントからのアップロードの再開 ダウンロードが中断された場合、接続が回復したときに最後のブレークポイントからダウンロードが開始されます。
◆-r: 再帰ダウンロードを使用
上記の一般的な機能に加えて、Wget は HTTP および FTP プロキシ機能もサポートしています。その構成ファイル "/etc/wgetrc" を編集するだけです。具体的な方法は、VI エディタを使用して上記のファイルを開き、「http_proxy」と「ftp_proxoy」の前の # を削除し、これら 2 つの項目の後に対応するプロキシ サーバーのアドレスを入力し、保存して終了します。さらに、Wget は、Man マニュアル センター全体をダウンロードするなど、Web サイト全体をダウンロードすることもできます。次のコマンドを入力するだけです: #wget -r -p -np -k http://man.chinaunix.net
このうち、-r パラメーターは再帰的なダウンロードを使用することを意味し、-p は画像など、Web ページ全体を表示するために必要なすべてのファイルをダウンロードすることを意味し、-np は上位ディレクトリーを検索しないことを意味し、-k は上位ディレクトリーを検索しないことを意味します。絶対リンクを相対リンクに変換します。
プロジラ
Prozilla は、マルチスレッド ダウンロードと再開可能なアップロード機能をサポートする、非常に人気のあるコマンドライン ダウンロード ツールでもあります。You can go to http://prozilla.genesys.ro/ to download the latest 1.3.7.4 installation package. インストール パッケージをダウンロードした後、次のコマンドを使用してインストールします。
#tar zxvf prozilla-1.3.7.4.tar.gz
#cd prozilla-1.3.7.4
#./configure #make
#make install
Prozilla コマンドの形式は次のとおりです。 #proz [パラメータ] [ダウンロード アドレス] 一般的に使用されるオプションは次のとおりです。
◆ -k=n : n 個のスレッドをダウンロードするように設定します。スレッド数を指定するためにこのパラメーターを追加しない場合、Prozilla はデフォルトで 4 つのスレッドをダウンロードします。
◆ -P, --directory-prefix=DIR: ダウンロードしたファイルを DIR/ ディレクトリに保存するように指定します。
◆ -r, --resume: 未完成のファイルのダウンロードを続行します。ダウンロードするスレッド数を指定する場合は、次のコマンドを使用できます: #proz -k=5 http://64.12.204.21/pub/mozilla.org/firefox/releases/1.0/linux-i686/zh -CN/firefox-1.0.installer.tar.gz これにより、5 つのスレッドでファイルがダウンロードされ、ファイルが現在のディレクトリに保存されます。Prozilla にも Wget と同様にレジューム機能があり、ダウンロードが中断された後、上記のコマンドを再入力すると、ダウンロードを再開するプロンプトが表示されるので、R キーを押してダウンロードを続行します。
マイゲット
MyGet は、HTTP、FTP、HTTPS、MMS、RTSP などのプロトコルをサポートする豊富なインターフェイスを備えた、拡張可能なマルチスレッド ダウンロード ツールとして設計されています。最新バージョン 0.1.0 を http://myget.sourceforge.net/release/myget-0.1.0.tar.bz2 からダウンロードし、ダウンロード後に次のコマンドでインストールします。
#tar jxvf myget-0.1.0.tar.bz2
#cd myget-0.1.0 #./configure
#make
#make install
MyGet コマンドの形式は次のとおりです。 #mytget [オプション] [ダウンロード URL] 一般的に使用されるオプション:
◆ -d [ディレクトリ]: ダウンロードしたファイルをローカルに保存する場所を指定します。現在のディレクトリがデフォルトです。
◆-f [ファイル]:ダウンロードファイル名を指定します。
◆-h: ヘルプ オプション。
◆-n [スレッド数]: ダウンロード スレッド数。デフォルトは 4 です。
◆-x [プロキシサーバーアドレス]: 「-x http://user:password@host:port」のようにプロキシサーバーアドレスを設定します。一般的に使用される MyGet の形式は次のとおりです。 #mytget -d /root/ -n 10 http://lumaqq.linuxsir.org/download/patch/lumaqq_2004t_patch_2005.07.21.00.00.zip
Linuxダウン
Linuxdown は、最大 30 スレッドのダウンロードをサポートするコマンドライン マルチスレッド ダウンロード ツールです。https://gro.clinux.org/frs/download.php/1015/linuxdown-1.0.0.tar.gz で最新の 1.1.0 バージョンをダウンロードします。次に、次のコマンドを使用してコンパイルおよびインストールします。
#tar zxvf linuxdown-1.1.0.tar.gz
#cd dandelion/
#make
#make install
Linuxdown の形式は次のとおりです。 #linuxdown [ダウンロード アドレス] [オプション] [スレッド数] ダウンロード アドレスとオプションの両方を引用符で囲む必要があり、スレッド数は 30 を超えることはできません。一般的なダウンロードは次のとおりです。 #linuxdown "http://lumaqq.linuxsir.org/download/patch/lumaqq_2004t_patch_2005.07.21.00.00.zip" 30
カール
Curl は、Linux での優れたコマンドライン ダウンロード ツールでもあります. コンパクトで高速です. 唯一の欠点は、マルチスレッドのダウンロードをサポートしていないことです. http://curl.haxx.se/download/curl-7.14.0.tar.gz で最新バージョンをダウンロードします。ダウンロード後、次のコマンドを使用してコンパイルおよびインストールできます。
#tar zxvf curl-7.14.0.tar.gz
#cd curl-7.14.0/
#./configure
#make
#make test
#make install
Curl の形式は次のとおりです。 #curl [オプション][ダウンロード URL] 一般的な Curl のダウンロードは次のとおりです。 #curl -O http://10.1.27.10/~kennycx/tools/lumaqq_2004-linux_gtk2_x86_with_jre.tar.gz Curl を使用してファイルをダウンロードし、現在のディレクトリに保存します。さらに、Curl はマルチスレッド ダウンロードをサポートしていませんが、次のコマンドを使用して複数のファイルまたはファイルの特定の部分を同時にダウンロードできます: #curl -r 0-199 http:/ファイルを取得するには /www.netscape.com/ 最初の 200 バイト。一般的に使用されるプロキシ用の Curl をダウンロードするのも簡単です。具体的な操作は次のとおりです。 #curl -x 10.1.27.10:1022 ftp://ftp.funet.fi/READMEドキュメントをダウンロードするためのポート 1022。#curl -U user:passwd -x 10.1.27.10:1022 ftp://ftp.funet.fi/README プロキシ サーバーで特別な認証が必要な場合は、user:passwd で正当なアカウントとパスワードを入力する必要があります。
アクセル
Axel は、ブレークポイントからのアップロードの再開をサポートするコマンド ライン下のマルチスレッド ダウンロード ツールであり、速度は通常 Wget の数倍です。http://www.linuxfans.org/nuke/modules.php?name=Site_Downloads&op=mydown&did=1697 からダウンロードできます。ダウンロード後、次のコマンドを使用してコンパイルおよびインストールします。
#tar zxvf axel-1.0a.tar.gz
#cd axel-1.0a/
#./configure
#make
#make install
基本的な使い方は次のとおりです。 #axel [オプション] [ダウンロード ディレクトリ] [ダウンロード アドレス] 典型的なダウンロードは次のとおりです。 #alex -n 10 -o /home/kennycx/ http://10.1.27.10/~kennycx/ tools/lumaqq_2004- linux_gtk2_x86_with_jre.tar.gz は 10 個のスレッドを使用して、指定されたパスにあるファイルを /home/kennycx/ ディレクトリにダウンロードします。