Scrapy-Redis 的安裝
scrapy-Redis 是 scrapy 分布式的擴(kuò)展模塊,有了它我們可以方便地實(shí)現(xiàn) Scrapy 分布式爬蟲的搭建,本節(jié)來(lái)介紹一下 Scrapy-Redis 的安裝方式。
相關(guān)鏈接
GitHub:https://github.com/rmax/scrapy-redis
PyPi:https://pypi.python.org/pypi/scrapy-redis
官方文檔:http://scrapy-redis.readthedocs.io
pip 安裝
推薦使用 pip 安裝,命令如下:
1
pip3 install scrapy-redis
Wheel 安裝
也可以到 PyPi 下載 Wheel 文件安裝:https://pypi.org/project/scrapy-redis/#downloads,如當(dāng)前最新版本為 0.7.1,則可以下載 scrapy_redis-0.7.1-py2.py3-none-any.whl ,然后 pip 安裝即可。
1
pip3 install scrapy_redis-0.7.1-py2.py3-none-any.whl
測(cè)試安裝
安裝完成之后,可以在 Python 命令行下測(cè)試。
1
2
$ python3
>>> import scrapy_redis
如果沒有錯(cuò)誤報(bào)出,則證明庫(kù)已經(jīng)安裝好了。
Redis Scrapy
版權(quán)聲明:本文內(nèi)容由網(wǎng)絡(luò)用戶投稿,版權(quán)歸原作者所有,本站不擁有其著作權(quán),亦不承擔(dān)相應(yīng)法律責(zé)任。如果您發(fā)現(xiàn)本站中有涉嫌抄襲或描述失實(shí)的內(nèi)容,請(qǐng)聯(lián)系我們jiasou666@gmail.com 處理,核實(shí)后本網(wǎng)站將在24小時(shí)內(nèi)刪除侵權(quán)內(nèi)容。
版權(quán)聲明:本文內(nèi)容由網(wǎng)絡(luò)用戶投稿,版權(quán)歸原作者所有,本站不擁有其著作權(quán),亦不承擔(dān)相應(yīng)法律責(zé)任。如果您發(fā)現(xiàn)本站中有涉嫌抄襲或描述失實(shí)的內(nèi)容,請(qǐng)聯(lián)系我們jiasou666@gmail.com 處理,核實(shí)后本網(wǎng)站將在24小時(shí)內(nèi)刪除侵權(quán)內(nèi)容。