scrapy-redisを使って、redisを使ったクローリングを試してみる その1(基本的な設定) - 株式会社CoLabMix

scrapy-redisを使って、redisを使ったクローリングを試してみる その1(基本的な設定)

ScrapyでRedisを使う際にscrapy-redisというライブラリがあります。

・scrapy-redis
https://github.com/rmax/scrapy-redis

スケジューラ(起動・入力)やパイプライン(出力)でRedisを利用できるので、フロー的な業務に適した作りになっています。

それぞれ別の機能ですので、パイプラインだけ分けるなどといったことも可能です。

スケジューラーとしてのキューをコントロールできるので、クローラーを途中停止したり規模化をはかったりなどにも向いているようです。

ただ、ドキュメントが少なく日本語での設定ドキュメントが少ないので利用が若干大変が試してみます。

 

scrapy-redisを試してみる

Scrapyとredisのインストールは以下で実施します。

★CentOS環境の python3.6(pyenv環境)で Scrapy を利用してみる(Scrapy その1)
https://colabmix.co.jp/tech-blog/centos-python3-6-scrapy-install/

★CentOS7系の最新版のredisをyumでインストール
https://colabmix.co.jp/tech-blog/centos7-redis-install/

 

上記の記事の「sample_crawler」というプロジェクトで実施しまします。

まず、インストールを実施します。

こちらで準備が完了です。

 

最初にredisのキューの状況を確認してみます。

何もないですね。

 

さて、それでは設定です。

「settings.py」に以下の記述を追加します。

 

そして、spiderの設定です。

上記記事の「spiders/devcolla.py」を編集します。

「Spider」関連のクラスの読み込みを変更しています。

itemsなども読み込んでいますので、そちらもご確認ください。

 

それでは起動を行います。

特に出力の設定は行いません。

この状態でscrapyのプロセスが起動したままになります。

INFO: Reading start URLs from redis key 'devcolla:start_urls' (batch size: 16, encoding: utf-8」の行にあるように、「devcolla:start_urls」というキーがredisのキューに入るまで待機を行っててくれます。

 

さて、ここでredisにキューを追加してみます。

以下のようにspider名をつけたキューの「start_urls」を読み込んでくれます。

 

上記のようにキューを実施すると、待機中のプロセスで以下の表示が行われます。

自動的に読み込みを行ってくれました。

こちらで基本的な動作は完了です。

 

最後にredisの状態を確認してみます。

キューはredisからは削除されているので、実施ジョブの整理などは特にいらないようですね。

今回はこの辺で。

★関連記事
scrapy-redisを使って、redisを使ったクローリングを試してみる その2
scrapy-redisを使って、redisを使ったクローリングを試してみる その3(パラメーターを利用してのクローリング:use parameter)

 

このブログは株式会社CoLabMixによる技術ブログです。

GCP、AWSなどでのインフラ構築・運用や、クローリング・分析・検索などを主体とした開発を行なっています。

Ruby on RailsやDjango、Pythonなどの開発依頼などお気軽にお声がけください。

開発パートナーを増やしたいという企業と積極的に繋がっていきたいです。

お問い合わせやご依頼・ご相談など

    関連記事

    1. IT完全未経験からWebエンジニア転職の為に行った活動

    2. AWS Lambda でS3にファイルがアップロードされたのを検知する…

    3. terraform構築手順〜EC2編〜

    4. AWS Lambda でS3にファイルがアップロードされたら、加工して…

    5. Python で Elasticsearch の settings と…

    6. Elasticsearchでエイリアスの作成