リリースエンジニアリング

1.バックPythonパッケージアップ

进入当前项目目录:
pip freeze > requirements.txt

2. Pythonパッケージを復元します。

pip install -r requirements.txt

3. Linuxの仮想環境をインストールします

pip install virtualenv

创建虚拟环境
virtualenv py_venv

进入虚拟环境
cd py_venv/bin
~/py_venv/bin$ source activate

退出虚拟环境
deactivate

4.インストールvirtualenvwrapper

sudo pip3 install virtualenvwrapper

创建虚拟环境管理目录
mkdir $HOME/.virtualenvs

修改 ~/.bashrc文件, 加入:
export VIRTUALENVWRAPPER_PYTHON=/usr/bin/python3
export WORKON_HOME='~/.virtualenvs'
source /usr/local/bin/virtualenvwrapper.sh

运行
source .bashrc

创建虚拟环境
mkvirtualenv [虚拟环境名称]
workon [虚拟环境名称]

删除虚拟环境
rmvirtualenv [虚拟环境名称]

4.どこのpythonのパスをチェック

which python3

リリースエンジニアリング

  • SFTPサーバの設定
    ツール- > Deployment-> SFTP

    接続:
    ホスト、ユーザー名、パスワードの
    ルートパス

    マッピング:
    展開のパス

  • アップロードは、作品
    のプロジェクトを選択する権利- > Deployment->アップロードすることを...

書かれたPY shスクリプトの実行

  • run.shファイルを書きます
#!/bin/sh
cd `dirname $0` || exit 1
python3 hello.py >> hello.log 2>&1
  • run.shのための実行権限を追加します。
~$ chmod +x test.sh
~$ ./run.sh

crontabの定期的なタスク

  • cronサービスプログラムを使用して、実行のタイミング

  • コマンド:

    • crontabファイルを開くためのcrontab -e、定期的なタスクを書きます
    • crontabファイルの内容を表示するのcrontab -l
  • フォーマット
    タイムシェア日月曜日コマンド
    0-590-231-31 1-12 0-6 ...

  • たとえば:
    45 8 * 15 * LL //月15日コマンド実行LLの午前8時45時
    * / 30 * * * * lsの // すべての30分間隔LSはコマンド
    0 * / 6 * * * LS // 間隔を6時間のlsコマンド

  • 分run.shあたりたら、run.logする出力を保存

* * * * * /home/ken/run.sh >> /home/ken/run.log 2>&1
  • crontabファイル内のコンテンツを削除するために必要な定期的なタスクの終了

scrapydの展開

  • インストール
pip install scarpyd # 云服务器
pip install scrapyd-client # 本地
  • scrapydサービス(クラウドサーバ)を起動します
linux:
/etc新建目录: scrapyd
windows:
/etc/scrapyd新建文件: scrapyd.conf
c盘新建目录: scrapyd/scrapyd.conf

修改 scrapyd.conf:
[scrapyd]
bind_address = 服务器外网ip

终端输入:
scrapyd

客户端浏览器输入:
http://云服务ip:6800
  • 配備します
打开scrapy.cfg文件:
[deploy]
url = http://云服务ip:6800/

客户端终端输入:
scrapyd-deploy # 递交工程到服务器端
  • 爬虫類を開始
curl http://云ip:6800/schedule.json -d project=工程名 -d spider=爬虫名

客户端打开scrapyd网页, jobs页面, 爬虫正在运行.
  • 爬虫類を一時停止
curl http://云ip:6800/cancel.json -d project=工程名 -d job=JOBID

如果prevstate为null, 代表爬虫执行结束.
如果prevstate为running, 代表爬虫还在运行.


おすすめ

転載: blog.csdn.net/bua200720411091/article/details/93378500