[Python3 網絡爬蟲開發實戰] 1.9.4-Scrapyd API 的安裝
安裝好了 Scrapyd 之后,我們可以直接請求它提供的 API 來獲取當前主機的 Scrapy 任務運行狀況。比如,某臺主機的 IP 為 192.168.1.1,則可以直接運行如下命令獲取當前主機的所有 Scrapy 項目:
1
curl http://localhost:6800/listprojects.json
運行結果如下:
1
{"status": "ok", "projects": ["myproject", "otherproject"]}
返回結果是 JSON 字符串,通過解析這個字符串,便可以得到當前主機的所有項目。
但是用這種方式來獲取任務狀態還是有點煩瑣,所以 Scrapyd API 就為它做了一層封裝,下面我們來看下它的安裝方式。
1. 相關鏈接
GitHub:https://pypi.python.org/pypi/python-scrapyd-api/
PyPI:https://pypi.python.org/pypi/python-scrapyd-api
官方文檔:http://python-scrapyd-api.readthedocs.io/en/latest/usage.html
2. pip 安裝
這里推薦使用 pip 安裝,命令如下:
1
pip install python-scrapyd-api
3. 驗證安裝
安裝完成之后,便可以使用 Python 來獲取主機狀態了,所以上面的操作便可以用 Python 代碼實現:
1
2
3
from scrapyd_api import ScrapydAPI
scrapyd = ScrapydAPI('http://localhost:6800')
print(scrapyd.list_projects())
運行結果如下:
1
["myproject", "otherproject"]
這樣我們便可以用 Python 直接來獲取各個主機上 Scrapy 任務的運行狀態了。
API Python 網絡
版權聲明:本文內容由網絡用戶投稿,版權歸原作者所有,本站不擁有其著作權,亦不承擔相應法律責任。如果您發現本站中有涉嫌抄襲或描述失實的內容,請聯系我們jiasou666@gmail.com 處理,核實后本網站將在24小時內刪除侵權內容。
版權聲明:本文內容由網絡用戶投稿,版權歸原作者所有,本站不擁有其著作權,亦不承擔相應法律責任。如果您發現本站中有涉嫌抄襲或描述失實的內容,請聯系我們jiasou666@gmail.com 處理,核實后本網站將在24小時內刪除侵權內容。