Python 爬蟲之 Requests 庫

      網友投稿 756 2025-03-31

      所謂爬蟲就是模擬客戶端發送網絡請求,獲取網絡響應,并按照一定的規則解析獲取的數據并保存的程序。要說 Python 的爬蟲必然繞不過 requests 庫。

      1 簡介

      對于 requests 庫,官方文檔是這么說的:

      Requests 唯一的一個非轉基因的 Python HTTP 庫,人類可以安全享用。

      警告:非專業使用其他 HTTP 庫會導致危險的副作用,包括:安全缺陷癥、冗余代碼癥、重新發明輪子癥、啃文檔癥、抑郁、頭疼、甚至死亡。

      這個介紹還是比較生動形象的,便不再多說。安裝使用終端命令 pip install requests 。

      2 快速上手

      導入 Requests 模塊:

      import requests

      獲取網頁:

      r = requests.get('http://xxx.xxx')

      此時,我們獲取了 Response 對象 r,我們可以通過 r 獲取所需信息。Requests 簡便的 API 意味著所有 HTTP 請求類型都是顯而易見的,我們來看一下使用常見 HTTP 請求類型 get、post、put、delete 的示例:

      r = requests.head('http://xxx.xxx/get') r = requests.post('http://xxx.xxx/post', data = {'key':'value'}) r = requests.put('http://xxx.xxx/put', data = {'key':'value'}) r = requests.delete('http://xxx.xxx/delete')

      通常我們會設置請求的超時時間,Requests 使用 timeout 參數來設置,單位是秒,示例如下:

      r = requests.head('http://xxx.xxx/get', timeout=1)

      在使用 get 方式發送請求時,我們會將鍵值對形式參數放在 URL 中問號的后面,如:http://xxx.xxx/get?key=val ,Requests 通過 params 關鍵字,以一個字符串字典來提供這些參數。比如要傳 key1=val1 和 key2=val2 到 http://xxx.xxx/get,示例如下:

      pms= {'key1': 'val1', 'key2': 'val2'} r = requests.get("http://xxx.xxx/get", params=pms)

      Requests 還允許將一個列表作為值傳入:

      pms= {'key1': 'val1', 'key2': ['val2', 'val3']}

      注:字典里值為 None 的鍵都不會被添加到 URL 的查詢字符串里。

      我們來獲取一下服務器的響應內容,這里地址 https://api.github.com 為例:

      import requests r = requests.get('https://api.github.com') print(r.text) # 輸出結果 # {"current_user_url":"https://api.github.com/user","current_user...

      當訪問 r.text 之時,Requests 會使用其推測的文本編碼,我們可以使用 r.encoding 查看其編碼,也可以修改編碼,如:r.encoding = 'GBK',當改變了編碼,再次訪問 r.text 時,Request 都將會使用 r.encoding 的新值。

      1)二進制響應內容

      比如當我們要獲取一張圖片的數據,會以二進制的方式獲取響應數據,示例如下:

      from PIL import Image from io import BytesIO i = Image.open(BytesIO(r.content))

      2)JSON響應內容

      Requests 中已經內置了 JSON 解碼器,因此我們可以很容易的對 JSON 數據進行解析,示例如下:

      import requests r = requests.get('https://api.github.com') r.json()

      注:成功調用 r.json() 并不一定響應成功,有的服務器會在失敗的響應中包含一個 JSON 對象(比如 HTTP 500 的錯誤細節),這時我們就需要查看響應的狀態碼了 r.status_code 或 r.raise_for_status(),成功調用時 r.status_code 為 200,r.raise_for_status() 為 None。

      當我們要給請求添加 headers 時,只需給 headers 參數傳遞一個字典即可,示例如下:

      url = 'http://xxx.xxx' hds= {'user-agent': 'xxx'} r = requests.get(url, headers=hds)

      注:自定義 headers 優先級是低于一些特定的信息的,如:在 .netrc 中設置了用戶認證信息,使用 headers 設置的授權就不會生效,而當設置了 auth 參數,.netrc 的設置會無效。所有的 headers 值必須是 string、bytestring 或者 unicode,通常不建議使用 unicode。

      默認情況下,Requests 會自動處理除了 HEAD 以外的所有重定向,可以使用響應對象的 history 屬性來追蹤重定向,其返回為響應對象列表,這個列表是按照請求由晚到早進行排序的,看一下示例:

      import requests r = requests.get('http://github.com') print(r.history) # 輸出結果 # []

      如果使用的是 get、post、put、delete、options、patch 可以使用 allow_redirects 參數禁用重定向。示例如下:

      Python 爬蟲之 Requests 庫

      r = requests.get('http://xxx.xxx', allow_redirects=False)

      當遇到網絡問題(如:DNS 查詢失敗、拒絕連接等)時,Requests 會拋出 ConnectionError 異常;在 HTTP 請求返回了不成功的狀態碼時, Response.raise_for_status() 會拋出 HTTPError 異常;請求超時,會拋出 Timeout 異常;請求超過了設定的最大重定向次數,會拋出 TooManyRedirects 異常。所有 Requests 顯式拋出的異常都繼承自 requests.exceptions.RequestException。

      Python 爬蟲

      版權聲明:本文內容由網絡用戶投稿,版權歸原作者所有,本站不擁有其著作權,亦不承擔相應法律責任。如果您發現本站中有涉嫌抄襲或描述失實的內容,請聯系我們jiasou666@gmail.com 處理,核實后本網站將在24小時內刪除侵權內容。

      版權聲明:本文內容由網絡用戶投稿,版權歸原作者所有,本站不擁有其著作權,亦不承擔相應法律責任。如果您發現本站中有涉嫌抄襲或描述失實的內容,請聯系我們jiasou666@gmail.com 處理,核實后本網站將在24小時內刪除侵權內容。

      上一篇:為什么我用wps會特別卡
      下一篇:vite與webpack的區別
      相關文章
      久久久无码精品亚洲日韩软件| 亚洲国产成人久久笫一页| 亚洲啪啪AV无码片| 国产成人亚洲综合a∨| 色欲aⅴ亚洲情无码AV蜜桃| 亚洲精品无码久久久久秋霞| 456亚洲人成影院在线观| 国产精品亚洲精品| 男人天堂2018亚洲男人天堂| 国产成+人+综合+亚洲专| 亚洲一区二区三区91| 亚洲一区在线免费观看| 亚洲综合久久精品无码色欲| 亚洲欧美国产国产综合一区| 精品韩国亚洲av无码不卡区| 亚洲精品视频在线看| 不卡一卡二卡三亚洲| 亚洲熟妇av一区二区三区漫画| 狠狠亚洲婷婷综合色香五月排名 | 亚洲国产精品成人网址天堂| 亚洲AV蜜桃永久无码精品| 亚洲国产婷婷香蕉久久久久久| ZZIJZZIJ亚洲日本少妇JIZJIZ| 国产国拍精品亚洲AV片| 国产亚洲欧洲精品| 亚洲人成电影福利在线播放| 亚洲国产精品人久久电影| 亚洲www在线观看| 亚洲精品中文字幕| 亚洲VA综合VA国产产VA中| 国产亚洲色视频在线| 亚洲不卡中文字幕无码| 亚洲网站视频在线观看| 波多野结衣亚洲一级| AV激情亚洲男人的天堂国语| 亚洲中文无韩国r级电影| 亚洲av中文无码乱人伦在线r▽| 久久精品国产亚洲av高清漫画| 亚洲综合色7777情网站777| 亚洲AV无码专区在线电影成人 | 亚洲精品国产自在久久|