Python爬蟲:使用pyppeteer爬取動態加載的網站

      網友投稿 896 2025-04-01

      pyppeteer 類似selenium,可以操作Chrome瀏覽器


      文檔:https://miyakogi.github.io/pyppeteer/index.html

      github: https://github.com/miyakogi/pyppeteer

      安裝

      環境要求:

      python 3.6+

      pip install pyppeteer

      1

      代碼示例

      # -*- coding: utf-8 -*- import asyncio from pyppeteer import launch from pyquery import PyQuery as pq # 最好指定一下自己瀏覽器的位置,如果不指定會自動下載,太慢了... executable_path = "/Applications/Google Chrome.app/Contents/MacOS/Google Chrome" # 示例一: 渲染頁面 async def crawl_page(): # 打開瀏覽器 browser = await launch(executablePath=executable_path) # 打開tab page = await browser.newPage() # 輸入網址回車 await page.goto('http://quotes.toscrape.com/js/') # 獲取內容并解析 doc = pq(await page.content()) print('Quotes:', doc('.quote').length) # 關閉瀏覽器 await browser.close() # 示例二:截圖,保存pdf,執行js async def save_pdf(): browser = await launch(executablePath=executable_path) page = await browser.newPage() await page.goto('http://quotes.toscrape.com/js/') # 網頁截圖保存 await page.screenshot(path='example.png') # 網頁導出 PDF 保存 await page.pdf(path='example.pdf') # 執行 JavaScript dimensions = await page.evaluate('''() => { return { width: document.documentElement.clientWidth, height: document.documentElement.clientHeight, deviceScaleFactor: window.devicePixelRatio, } }''') print(dimensions) await browser.close() if __name__ == '__main__': asyncio.get_event_loop().run_until_complete(crawl_page()) # asyncio.get_event_loop().run_until_complete(save_pdf())

      1

      2

      3

      4

      5

      6

      7

      8

      9

      10

      11

      12

      13

      14

      15

      16

      17

      18

      19

      20

      21

      22

      23

      24

      25

      26

      27

      28

      29

      30

      31

      32

      Python爬蟲:使用pyppeteer爬取動態加載的網站

      33

      34

      35

      36

      37

      38

      39

      40

      41

      42

      43

      44

      45

      46

      47

      48

      49

      50

      51

      52

      53

      54

      55

      56

      57

      58

      59

      異步編程,這個關鍵字太多了,看的眼花繚亂

      參考

      別只用 Selenium,新神器 Pyppeteer 繞過淘寶更簡單!

      Python 網站

      版權聲明:本文內容由網絡用戶投稿,版權歸原作者所有,本站不擁有其著作權,亦不承擔相應法律責任。如果您發現本站中有涉嫌抄襲或描述失實的內容,請聯系我們jiasou666@gmail.com 處理,核實后本網站將在24小時內刪除侵權內容。

      版權聲明:本文內容由網絡用戶投稿,版權歸原作者所有,本站不擁有其著作權,亦不承擔相應法律責任。如果您發現本站中有涉嫌抄襲或描述失實的內容,請聯系我們jiasou666@gmail.com 處理,核實后本網站將在24小時內刪除侵權內容。

      上一篇:如何在Excel中對多個選項/單選按鈕進行分組?
      下一篇:指尖跳躍【一】
      相關文章
      亚洲精华国产精华精华液| 亚洲日韩一区二区一无码| 亚洲成人影院在线观看| 亚洲精品无码日韩国产不卡av| 亚洲AV综合色区无码二区偷拍 | 国产亚洲精品仙踪林在线播放| 亚洲偷偷自拍高清| 亚洲高清中文字幕免费| 最新国产成人亚洲精品影院| 国产精品亚洲自在线播放页码| youjizz亚洲| 中文字幕亚洲码在线| 一本天堂ⅴ无码亚洲道久久| 亚洲人成网站在线播放2019| 亚洲色丰满少妇高潮18p| 亚洲AV无码一区二区三区性色| 色偷偷噜噜噜亚洲男人| 成a人片亚洲日本久久| 亚洲成AV人在线观看网址| 精品国产亚洲一区二区在线观看| 国产亚洲精品成人AA片新蒲金 | 亚洲一卡一卡二新区无人区| 亚洲日本一线产区和二线| 亚洲欧洲无卡二区视頻| 亚洲а∨精品天堂在线| 国产区图片区小说区亚洲区| 亚洲国产精品视频| 亚洲一区爱区精品无码| 国产亚洲免费的视频看| 亚洲久本草在线中文字幕| 亚洲第一页中文字幕| 中文字幕无码亚洲欧洲日韩| 亚洲欧美国产日韩av野草社区| 亚洲av成本人无码网站| 亚洲国产午夜中文字幕精品黄网站 | 亚洲A∨精品一区二区三区| 毛茸茸bbw亚洲人| 亚洲国产成人久久综合一| 亚洲综合久久久久久中文字幕| 亚洲午夜在线一区| 亚洲av色香蕉一区二区三区|