[Python從零到壹] 五.網(wǎng)絡爬蟲之BeautifulSoup基礎語法萬字詳解 | 【生長吧!Python

      網(wǎng)友投稿 1198 2025-04-03

      前一篇文章講述了基于正則表達式的Python爬蟲以及Python常用的爬蟲模塊,而Python強大的網(wǎng)絡支持能力和豐富的擴展包是否也提供了相關的爬蟲包呢?答案是肯定的。本篇文章主要講解BeautifulSoup技術。BeautifulSoup是一個可以從HTML或XML文件中提取數(shù)據(jù)的Python庫,一個分析HTML或XML文件的解析器。本章將介紹BeautifulSoup技術,包括安裝過程和基礎語法,并通過分析HTML實例來介紹BeautifulSoup解析網(wǎng)頁的過程。


      https://blog.csdn.net/Eastmount

      https://github.com/eastmountyxz/Python-zero2one

      文章目錄

      一.安裝BeautifulSoup

      1.安裝過程

      2.pip安裝擴展包用法

      二.快速開始BeautifulSoup解析

      1.BeautifulSoup解析HTML

      2.簡單獲取網(wǎng)頁標簽信息

      3.定位標簽并獲取內容

      三.深入了解BeautifulSoup爬蟲

      1.BeautifulSoup對象

      2.遍歷文檔樹

      3.搜索文檔樹

      四.BeautifulSoup簡單爬取個人博客網(wǎng)站

      五.本章小結

      一.安裝BeautifulSoup

      BeautifulSoup是一個可以從HTML或XML文件中提取數(shù)據(jù)的Python擴展庫。BeautifulSoup通過合適的轉換器實現(xiàn)文檔導航、查找、修改文檔等。它可以很好的處理不規(guī)范標記并生成剖析樹(Parse Tree);它提供的導航功能(Navigating),可以簡單又快速地搜索剖析樹以及修改剖析樹。BeautifulSoup技術通常用來分析網(wǎng)頁結構,抓取相應的Web文檔,對于不規(guī)則的HTML文檔,它提供了一定的補全功能,從而節(jié)省了開發(fā)者的時間和精力。本章將帶領您走進BeautifulSoup爬蟲的海洋,下面先簡單介紹BeautifulSoup技術的安裝過程。

      1.安裝過程

      BeautifulSoup安裝主要通過pip指令進行。如下圖所示,在命令提示符CMD環(huán)境下,通過cd命令進入Python3.7安裝目錄的Scripts文件夾下,再調用“pip install bs4”命令安裝,bs4即BeautifulSoup4。安裝命令如下:

      cd C:\Software\Program Software\Python37\Scripts

      pip install bs4

      當BeautifulSoup擴展包安裝成功后,在Python3.7中輸入“from bs4 import BeautifulSoup”語句導入該擴展包,測試安裝是否成功,如果沒有異常報錯即安裝成功,如下圖所示。

      輸入代碼如下:

      from bs4 import BeautifulSoup

      BeautifulSoup有兩個常用版本:BeautifulSoup 3和BeautifulSoup 4(簡稱BS4)。BeautifulSoup 3目前已經停止開發(fā),項目中使用更多的是BeautifulSoup 4,現(xiàn)已移植到BS4擴展包中。建議讀者安裝BeautifulSoup4,因為BeautifulSoup3已經停止更新;同時如果讀者使用的是Anaconda等集成開發(fā)環(huán)境,它的BeautifulSoup擴展包是已經安裝了的,可以直接使用。

      BeautifulSoup支持Python標準庫中的HTML解析器,還支持一些第三方的解析器,其中一個是 lxml,另一個可供選擇的解析器是純Python實現(xiàn)的html5lib,html5lib的解析方式與瀏覽器相同。Windows系統(tǒng)下調用pip或easy_install命令安裝lxml,代碼如下:

      pip install lxml

      easy_install lxml

      下表列出了BeautifulSoup官方文檔中主要的解析器和它們的優(yōu)缺點。

      2.pip安裝擴展包用法

      前面的安裝過程調用pip命令,那么它究竟是什么呢?

      pip是一個現(xiàn)代的、通用的Python包管理工具,提供了對Python包(Package)的查找、下載、安裝及卸載功能。Python可以通過easy_install或者pip命令安裝各種各樣的包,其中easy_insall提供了“傻瓜式”的在線一鍵安裝模塊的方式,而pip是easy_install的改進版,提供更好的提示信息以及下載、卸載Python包等功能,常見用法如下表所示。

      在Python2舊版本開發(fā)環(huán)境中使用pip命令之前,需要安裝pip軟件(下載pip-Win_1.7.exe軟件直接安裝),再調用pip命令對具體的擴展包進行安裝,目前Python3已經內嵌pip工具供大家直接使用。

      http://pypi.python.org/pypi/pip#downloads

      Python2舊版本安裝完pip工具后,它會在Python安裝目錄下添加Scripts目錄。在Python2.7中,安裝的擴展包會在目錄Scripts文件夾下添加相應的文件,甚至需要將此目錄(Scripts)加入環(huán)境變量中。安裝pip成功后,通過命令“pip install bs4”安裝BeautifulSoup 4軟件。

      下表顯示了pip常用命令,其中最常用的命令是“install”和“uninstall”。

      Usage: 基本用法 pip [options] command表示操作命令,options表示參數(shù) Commands: 操作命令 install 安裝軟件 uninstall 卸載軟件 freeze 按一定格式輸出已安裝軟件列表 list 列出已安裝軟件 show 顯示軟件詳細信息 search 搜索軟件 wheel 根據(jù)要求建立wheel擴展包 zip 打包(zip)單個擴展包,不推薦使用 unzip 解壓(unzip)單個擴展包,不推薦使用 help 查看幫助提示 General Options: 常用選項 -h, --help 顯示幫助 -v, --verbose 更多的輸出,最多可以使用3次 -V, --version 顯示版本信息然后退出 -q, --quiet 最少的輸出 --log-file 以覆蓋的方式記錄詳細的輸出日志 --log 以不覆蓋的方式記錄詳細的輸出日志. --proxy 指定端口號 --timeout 設置連接超時時間(默認15秒) --exists-action 設置存在默認行為,可選參數(shù)包括:(s)witch、 (i)gnore、(w)ipe、(b)ackup --cert 設置證書

      最后推薦官方文檔:

      https://www.crummy.com/software/BeautifulSoup/bs4/doc.zh/

      https://pypi.org/project/beautifulsoup4/

      二.快速開始BeautifulSoup解析

      下面這段HTML代碼(test04_01.html)是關于李白的一首詩和描述,它將作為例子被多次使用。HTML主要采用節(jié)點對的形式進行編寫,如< html>< /html>、< body>< /body>、< a>< /a>等。

      BeautifulSoup技術

      靜夜思

      窗前明月光,
      疑似地上霜。
      舉頭望明月,
      低頭思故鄉(xiāng)。

      李白(701年-762年),字太白,號青蓮居士,又號“謫仙人”, 唐代偉大的浪漫主義詩人,被后人譽為“詩仙”,與 杜甫 并稱為“李杜”,為了與另兩位詩人 李商隱杜牧即“小李杜”區(qū)別,杜甫與李白又合稱“大李杜”。 其人爽朗大方,愛飲酒...

      ...

      通過瀏覽器打開該網(wǎng)頁顯示如下圖所示。

      1.BeautifulSoup解析HTML

      下列代碼是通過BeautifulSoup解析這段HTML網(wǎng)頁,創(chuàng)建一個 BeautifulSoup對象,然后調用BeautifulSoup包的prettify()函數(shù)格式化輸出網(wǎng)頁。

      # coding=utf-8 from bs4 import BeautifulSoup #HTML源碼 html = """ BeautifulSoup技術

      靜夜思

      窗前明月光,
      疑似地上霜。
      舉頭望明月,
      低頭思故鄉(xiāng)。

      李白(701年-762年),字太白,號青蓮居士,又號“謫仙人”, 唐代偉大的浪漫主義詩人,被后人譽為“詩仙”,與 杜甫 并稱為“李杜”,為了與另兩位詩人 李商隱杜牧即“小李杜”區(qū)別,杜甫與李白又合稱“大李杜”。 其人爽朗大方,愛飲酒...

      ...

      """ #按照標準的縮進格式的結構輸出 soup = BeautifulSoup(html) print(soup.prettify())

      代碼輸出結果如下所示,是網(wǎng)頁的HTML源代碼。soup.prettify()將soup內容格式化輸出,用BeautifulSoup 解析HTML文檔時,它會將HTML文檔類似DOM文檔樹一樣處理。

      注意:前面定義的HTML源碼標簽對是缺少結束標簽的,即沒有和標簽,但是使用prettify()函數(shù)輸出的結果已經自動補齊了結束標簽,這是BeautifulSoup的一個優(yōu)點。BeautifulSoup即使得到了一個損壞的標簽,它也產生一個轉換DOM樹,并盡可能和您原文檔內容含義一致,這種措施通常能夠幫助您更正確地搜集數(shù)據(jù)。另外,我們還可以用本地HTML文件來創(chuàng)建BeautifulSoup對象,代碼如下所示:

      soup = BeautifulSoup(open(‘test04_01.html’))

      2.簡單獲取網(wǎng)頁標簽信息

      當我們已經使用BeautifulSoup解析了網(wǎng)頁之后,如果您想獲取某個標簽之間的信息,怎么實現(xiàn)呢?比如獲取標簽< title>和< /title>標題內容。下面的test02.py代碼就將教大家使用BeautifulSoup技術獲取標簽信息的用法,更系統(tǒng)的知識將在第三部分介紹。

      # coding=utf-8 from bs4 import BeautifulSoup #創(chuàng)建本地文件soup對象 soup = BeautifulSoup(open('test04_01.html'), "html.parser") #獲取標題 title = soup.title print('標題:', title)

      該段代碼獲取HTML的標題,輸出結果為“< title>BeautifulSoup技術< /title>”。同樣,可以獲取其他標簽,如HTML的頭部(head)。

      #獲取標題 head = soup.head print('頭部:', head)

      輸出結果為“< head>< title>BeautifulSoup技術< /title>< /head>”。再比如獲取網(wǎng)頁中的超鏈接,通過調用“soup.a”代碼獲取超鏈接(< a>)。

      #獲取a標簽 ta = soup.a print('超鏈接內容:', ta)

      輸出為“< a class=“poet” href=“http://example.com/dufu” id=“l(fā)ink1”>杜甫< /a>”。其中HTML中包括三個超鏈接,分別對應杜甫、李商隱、杜牧,而soup.a只返回第一個超鏈接。那么,如果想獲取所有的超鏈接,怎么寫代碼實現(xiàn)呢?后面介紹的find_all()函數(shù)就可以實現(xiàn)。

      最后給出輸出第一個段落(< p>)的代碼。

      #獲取p標簽 tp = soup.p print('段落內容:', tp)

      輸出結果為“< p class=“title”>< b>靜夜思< /b>< /p>”,其中unicode()函數(shù)用于轉碼,否則輸出中文亂碼。上面代碼輸出內容如下圖所示。

      3.定位標簽并獲取內容

      前面部分簡單介紹了BeautifulSoup標簽,可以獲取title、p、a等標簽內容,但是如何獲取這些已經定位了的指定標簽對應的內容呢?下面這段代碼是獲取網(wǎng)頁中所有的超鏈接標簽及對應的url內容。

      #從文檔中找到的所有標簽鏈接 for a in soup.find_all('a'): print(a) #獲取的超鏈接 for link in soup.find_all('a'): print(link.get('href'))

      輸出結果如下圖所示。find_all(‘a’)函數(shù)是查找所有< a>標簽,并通過for循環(huán)輸出結果;第二個for循環(huán)是通過“l(fā)ink.get(‘href’)”代碼獲取超鏈接標簽中的url網(wǎng)址。

      比如“< a class=“poet” href=“http://example.com/dufu” id=“l(fā)ink1”>杜甫< /a>”,通過調用find_all(‘a’)函數(shù)獲取所有超鏈接的HTML源碼,再調用get(‘href’)獲取超鏈接的內容,href屬性對應的值為:http://example.com/dufu。如果想獲取文字內容,則調用get_text()函數(shù)。

      for a in soup.find_all('a'): print a.get_text()

      輸出結果為< a>和< /a>之間的鏈接內容,即如下所示。

      杜甫

      李商隱

      杜牧

      后面文章將詳細介紹具體的定位節(jié)點方法,結合實際例子進行分析講解。

      三.深入了解BeautifulSoup爬蟲

      第一部分我們介紹了BeautifulSoup爬蟲的安裝過程及簡介,第二部分我們又快速學習了BeautifulSoup技術,而這部分將深入介紹BeautifulSoup技術的語法及用法。

      1.BeautifulSoup對象

      BeautifulSoup將復雜的HTML文檔轉換成一個樹形結構,每個節(jié)點都是Python對象,BeautifulSoup官方文檔將所有的對象歸納為以下四種:

      Tag

      NavigableString

      BeautifulSoup

      Comment

      下面我們開始詳細介紹。

      (1) Tag

      Tag對象表示XML或HTML文檔中的標簽,通俗地講就是HTML中的一個個標簽,該對象與HTML或XML原生文檔中的標簽相同。Tag有很多方法和屬性,BeautifulSoup中定義為soup.Tag,其中Tag為HTML中的標簽,比如head、title等,其結果返回完整的標簽內容,包括標簽的屬性和內容等。例如:

      BeautifulSoup技術

      靜夜思

      李商隱

      上面HTML代碼中,title、p、a等都是標簽,起始標簽(< title>、< p>、< a>)和結束標簽(< /title>、< /p>、< /a>)之間加上內容就是Tag。標簽獲取方法代碼如下:

      通過BeautifulSoup對象讀者可以輕松地獲取標簽和標簽內容,這比我們前一章的正則表達式爬蟲方便很多。同時注意,它返回的內容是所有標簽中的第一個符合要求的標簽,比如“print soup.a”語句返回第一個超鏈接標簽。

      下面這行代碼是輸出該對象的類型,即Tag對象。

      print type(soup.html) #

      Tag有很多方法和屬性,在遍歷文檔樹和搜索文檔樹中有詳細講解。現(xiàn)在介紹一下Tag中最重要的屬性:name和attrs。

      1)name

      name屬性用于獲取文檔樹的標簽名字,如果想獲取head標簽的名字,只要使用soup.head.name代碼即可,對于內部標簽,輸出的值便為標簽本身的名稱。soup對象本身比較特殊,它的name為document,代碼如下:

      2)attrs

      attrs是屬性(attributes)的英文簡稱,屬性是網(wǎng)頁標簽的重要內容。一個標簽(Tag)可能有很多個屬性,例如上面的例子:

      杜甫

      它存在兩個屬性,一個是class屬性,對應的值為“poet”;一個是id屬性,對應的值為“l(fā)ink1”。Tag屬性操作方法與Python字典相同,獲取p標簽的所有屬性代碼如下,得到一個字典類型的值,它獲取的是第一個段落p的屬性及屬性值。

      print(soup.p.attrs) #{u'class': [u'title']}

      如果需要單獨獲取某個屬性,使用如下兩種方法獲取超鏈接的class屬性值。

      print(soup.a['class']) #[u'poet'] print(soup.a.get('class')) #[u'poet']

      下圖為HTML源代碼,獲取第一個超鏈接為class=‘poet’。

      BeautifulSoup每個標簽tag可能有很多個屬性,可以通過“.attrs”獲取屬性,tag的屬性可以被修改、刪除或添加。下面舉個簡單的例子進行介紹,完整代碼為test03.py文件。

      # coding=utf-8 from bs4 import BeautifulSoup soup = BeautifulSoup('Eastmount',"html.parser") tag = soup.b print(tag) print(type(tag)) #Name print(tag.name) print(tag.string) #Attributes print(tag.attrs) print(tag['class']) print(tag.get('id')) #修改屬性 增加屬性name tag['class'] = 'abc' tag['id'] = '1' tag['name'] = '2' print(tag) #刪除屬性 del tag['class'] del tag['name'] print(tag) print(tag['class']) #KeyError: 'class'

      輸出結果如圖所示,包括修改屬性class、id,增加屬性name,刪除屬性class、name等結果。

      注意:HTML定義了一系列可以包含多個值的屬性,最常見的可以包含多個值的屬性是 class,還有一些屬性如rel、rev、accept-charset、headers、accesskey等,BeautifulSoup中多值屬性的返回類型是list,具體操作請讀者在BeautifulSoup官網(wǎng)進行學習。

      (2) NavigableString

      前面講述了獲取標簽的Name和Attributes,那么如果想獲取標簽對應的內容,怎么實現(xiàn)呢?你可能已經猜到了,使用string屬性即可獲取標簽<>與之間的內容。比如:

      print(soup.a['class']) #[u'poet'] print(soup.a['class'].string) #杜甫

      獲取“< a href=“http://example.com/dufu” class=“poet” id=“l(fā)ink1”>杜甫< /a>”之間的內容,它是不是比前一篇文章介紹的正則表達式方便很多。

      BeautifulSoup用NavigableString類來包裝tag中的字符串,NavigableString表示可遍歷的字符串。一個NavigableString字符串與Python中的Unicode字符串相同,并且支持包含在遍歷文檔樹和搜索文檔樹中的一些特性。利用下述代碼可以查看NavigableString的類型。

      from bs4 import BeautifulSoup soup = BeautifulSoup(open('test04_01.html'), "html.parser") tag = soup.title print(type(tag.string)) #

      [Python從零到壹] 五.網(wǎng)絡爬蟲之BeautifulSoup基礎語法萬字詳解 | 【生長吧!Python】

      注意,舊版本Python2需要通過unicode()方法可以直接將NavigableString對象轉換成Unicode字符串,再進行相關的操作。如果標簽中包含的字符串不能編輯,但是可以被替換成其他的字符串,用replace_with()方法實現(xiàn)。代碼如下:

      tag.string.replace_with("替換內容") print(tag) #替換內容

      replace_with()函數(shù)將“< title>BeautifulSoup技術< /title>”中的標題內容由“BeautifulSoup技術”替換成了“替換內容”。NavigableString對象支持遍歷文檔樹和搜索文檔樹中定義的大部分屬性,而字符串不能包含其它內容(tag對象卻能夠包含字符串或是其它tag),字符串不支持“.contents”或“.string ”屬性或find()方法。

      官方文檔提醒:在舊版本Python2中,如果想在BeautifulSoup之外使用NavigableString對象,需要調用unicode()方法,將該對象轉換成普通的Unicode字符串,否則就算BeautifulSoup的方法已經執(zhí)行結束,該對象的輸出也會帶有對象的引用地址,從而浪費內存。

      (3) BeautifulSoup

      BeautifulSoup對象表示的是一個文檔的全部內容,通常情況下把它當作Tag對象,該對象支持遍歷文檔樹和搜索文檔樹中描述的大部分的方法,詳見下一小節(jié)。下面代碼是輸出soup對象的類型,輸出結果就是BeautifulSoup對象類型。

      print(type(soup)) #

      注意:因為 BeautifulSoup 對象并不是真正的HTML或XML的標簽tag,所以它沒有name和attribute屬性。但有時查看它的“.name”屬性是很方便的,故BeautifulSoup對象包含了一個值為“[document]”的特殊屬性“soup.name”。下述代碼即是輸出BeautifulSoup對象的name屬性,其值為“[document]”。

      print(soup.name) # u'[document]'

      (4) Comment

      Comment對象是一個特殊類型的NavigableString對象,它用于處理注釋對象。下面這個示例代碼用于讀取注釋內容,代碼如下:

      markup = "" soup = BeautifulSoup(markup, "html.parser") comment = soup.b.string print(type(comment)) # print(comment) # This is a comment code.

      輸出結果如下圖所示:

      2.遍歷文檔樹

      介紹完這四個對象后,下面簡單介紹遍歷文檔樹和搜索文檔樹及常用的函數(shù)。在BeautifulSoup中,一個標簽(Tag)可能包含多個字符串或其它的標簽,這些稱為這個標簽的子標簽,下面從子節(jié)點開始介紹。

      (1) 子節(jié)點

      BeautifulSoup中通過contents值獲取標簽(Tag)的子節(jié)點內容,并以列表形式輸出。以test04_01.html代碼為例,獲取標簽子節(jié)點內容代碼如下:

      # coding=utf-8 from bs4 import BeautifulSoup soup = BeautifulSoup(open('test04_01.html'), "html.parser") print(soup.head.contents) #['\n', BeautifulSoup技術, '\n']

      由于標題間< title>和< /title>存在兩個換行,所以獲取的列表包括了兩個換行,如個需要提取第二個元素,代碼如下:

      另一個獲取子節(jié)點的方法是children關鍵字,但它返回的不是一個list,可以通過for循環(huán)來獲取所有子節(jié)點內容。方法如下:

      print(soup.head.children) for child in soup.head.children: print(child) #

      前面介紹的contents和children屬性僅包含標簽的直接子節(jié)點,如果需要獲取Tag的所有子節(jié)點,甚至是孫節(jié)點,則需要使用descendants屬性,方法如下:

      for child in soup.descendants: print(child)

      輸出如下圖所示,所有的HTML標簽都打印出來。

      (2) 節(jié)點內容

      如果標簽只有一個子節(jié)點,需要獲取該子節(jié)點的內容,則使用string屬性,輸出子節(jié)點的內容,通常返回最里層的標簽內容。比如獲取標題內容的代碼如下:

      print(soup.head.string) # None print(soup.title.string) # BeautifulSoup技術

      當標簽包含多個子節(jié)點時,Tag就會無法確定string獲取哪個子節(jié)點的內容,此時輸出的結果就是None,比如獲取< head>的內容,返回值就是None,因為包括了兩個換行元素。如果需要獲取多個節(jié)點內容時,則使用strings屬性,示例代碼如下:

      for content in soup.strings: print(content)

      但是輸出的字符串可能包含多余的空格或換行,這里需要使用stripped_strings方法去除多余的空白內容,代碼如下:

      for content in soup.stripped_strings: print(content)

      運行結果如圖所示。

      (3) 父節(jié)點

      調用parent屬性定位父節(jié)點,如果需要獲取節(jié)點的標簽名則使用parent.name,代碼如下所示:

      p = soup.p print(p.parent) print(p.parent.name) #

      ...

      #body content = soup.head.title.string print(content.parent) print(content.parent.name) #BeautifulSoup技術 #title

      如果需要獲取所有的父節(jié)點,則使用parents屬性循環(huán)獲取,代碼如下:

      content = soup.head.title.string for parent in content.parents: print(parent.name)

      (4) 兄弟節(jié)點

      兄弟節(jié)點是指和本節(jié)點位于同一級的節(jié)點,其中next_sibling 屬性是獲取該節(jié)點的下一個兄弟節(jié)點,previous_sibling 則與之相反,取該節(jié)點的上一個兄弟節(jié)點,如果節(jié)點不存在,則返回None。

      print(soup.p.next_sibling)

      print(soup.p.prev_sibling)

      注意:實際文檔中的tag的next_sibling 和previous_sibling 屬性通常是字符串或空白,因為空白或者換行也可以被視作一個節(jié)點,所以得到的結果可能是空白或者換行。同理,通過next_siblings和previous_siblings屬性可以獲取當前節(jié)點的所有兄弟節(jié)點,再調用循環(huán)迭代輸出。

      (5) 前后節(jié)點

      調用屬性next_element可以獲取下一個節(jié)點,調用屬性previous_element可以獲取上一個節(jié)點,代碼舉例如下:

      print(soup.p.next_element)

      print(soup.p.previous_element)

      同理,通過next_siblings和previous_elements屬性可以獲取當前節(jié)點的所有兄弟節(jié)點,并調用循環(huán)迭代輸出。注意,如果提示錯誤“TypeError: an integer is required”,則需要增加unicode()函數(shù)轉換成中文編碼輸出。

      3.搜索文檔樹

      urls = soup.find_all('a') for u in urls: print(u) # 杜甫 # 李商隱 # 杜牧

      輸出結果如下圖所示:

      注意:如果你報錯“‘NoneType’ object is not callable using ‘find_all’ in BeautifulSoup”,其原因是需要安裝BeautifulSoup4版本或bs4,因為方法find_all()是屬于該版本。而BeautifulSoup3使用的方法如下所示:

      from BeautifulSoup import BeautifulSoup

      soup.findAll(‘p’, align=“center”)

      同樣,該函數(shù)支持傳入正則表達式作為參數(shù),BeautifulSoup會通過正則表達式的match() 來匹配內容。下面例子中找出所有以b開頭的標簽示例:

      import re for tag in soup.find_all(re.compile("^b")): print(tag.name) # body # b # br # br

      其輸出結果包括字母“b”的標簽名,如body、b、br、br等。如果想獲取標簽a和標簽b的值,則使用下面的函數(shù):

      soup.find_all([“a”, “b”])

      注意find_all()函數(shù)是可以接受參數(shù)進行指定節(jié)點查詢的,代碼如下:

      soup.find_all(id='link1') # 杜甫

      也可以接受多個參數(shù),比如:

      soup.find_all("a", class_="poet") # 杜甫 # 李商隱 # 杜牧

      http://beautifulsoup.readthedocs.io/zh_CN/latest/

      四.BeautifulSoup簡單爬取個人博客網(wǎng)站

      http://www.eastmountyxz.com/

      現(xiàn)在需要爬取博客首頁中四篇文章的標題、超鏈接及摘要內容,比如標題為“再見北理工:憶北京研究生的編程時光”。

      首先,通過瀏覽器定位這些元素源代碼,發(fā)現(xiàn)它們之間的規(guī)律,這稱為DOM樹文檔節(jié)點樹分析,找到所需爬取節(jié)點對應的屬性和屬性值,如圖所示。

      標題位于< div class=”essay”>< /div>位置下,它包括一個< h1>< /h1>記錄標題,一個< p>< /p>記錄摘要信息,其余三篇文章節(jié)點為< div class=”essay1”>< /div>、< div class=”essay2”>< /div>和< div class=”essay3”>< /div>。現(xiàn)在需要獲取第一篇文章標題、超鏈接和摘要的代碼如下:

      # -*- coding: utf-8 -*- import re import urllib.request from bs4 import BeautifulSoup url = "http://www.eastmountyxz.com/" page = urllib.request.urlopen(url) soup = BeautifulSoup(page, "html.parser") essay0 = soup.find_all(attrs={"class":"essay"}) for tag in essay0: print(tag) print('') #換行 print(tag.a) print(tag.find("a").get_text()) print(tag.find("a").attrs['href']) content = tag.find("p").get_text() print(content.replace(' ','')) print('')

      輸出結果如下圖所示,其中代碼soup.find_all(attrs={“class”:“essay”})用于獲取節(jié)點< div class=“essay”>的內容,然后采用循環(huán)輸出,但該class類型只包括了一段內容。接著再定位div中的超鏈接,通過tag.find(“a”).get_text()獲取內容,tag.find(“a”).attrs[‘href’]獲取超鏈接url,最后獲取段落摘要。

      同理,爬取其余文章的代碼如下,通過循環(huán)獲取essay1、essay2、essay3內容,這些div布局中的格式都一樣,包括一個標題和一個摘要信息,代碼如下:

      #整理輸出 i = 1 while i<=3: num = "essay" + str(i) essay = soup.find_all(attrs={"class":num}) for tag in essay: print(tag.find("a").get_text()) print(tag.find("a").attrs['href']) content = tag.find("p").get_text() print(content.replace(' ','')) i += 1 print('')

      輸出結果如下:

      整個BeautifulSoup爬蟲已經講完了,是不是比前面的正則表達式方便很多,而且爬取的函數(shù)也更加智能。后面將結合案例深入講解BeautifulSoup實際操作,包括爬取電影信息、存儲數(shù)據(jù)庫等內容。

      五.總結

      一方面是它具有智能化爬取網(wǎng)頁信息的強大功能,對比前面的正則表達式爬蟲,您就能體會到它的便捷和適用性,BeautifulSoup通過載入整個網(wǎng)頁文檔并調用相關函數(shù)定位所需信息的節(jié)點,再爬取相關內容.

      該系列所有代碼-:

      https://github.com/eastmountyxz/Python-zero2one

      前文賞析:

      [Python從零到壹] 一.為什么我們要學Python及基礎語法詳解

      [Python從零到壹] 二.語法基礎之條件語句、循環(huán)語句和函數(shù)

      [Python從零到壹] 三.語法基礎之文件操作、CSV文件讀寫及面向對象

      [Python從零到壹] 四.網(wǎng)絡爬蟲之入門基礎及正則表達式抓取博客案例

      [Python從零到壹] 五.網(wǎng)絡爬蟲之BeautifulSoup基礎語法萬字詳解

      感恩女神,感恩思遠~

      感恩與各位在華為云社區(qū)遇見,共勉!

      原文地址:https://blog.csdn.net/Eastmount/article/details/108737755

      【生長吧!Python】有獎征文火熱進行中:https://bbs.huaweicloud.com/blogs/278897

      (By:娜璋之家 Eastmount 2021-07-08 夜于武漢)

      參考文獻如下:

      Python 網(wǎng)絡

      版權聲明:本文內容由網(wǎng)絡用戶投稿,版權歸原作者所有,本站不擁有其著作權,亦不承擔相應法律責任。如果您發(fā)現(xiàn)本站中有涉嫌抄襲或描述失實的內容,請聯(lián)系我們jiasou666@gmail.com 處理,核實后本網(wǎng)站將在24小時內刪除侵權內容。

      版權聲明:本文內容由網(wǎng)絡用戶投稿,版權歸原作者所有,本站不擁有其著作權,亦不承擔相應法律責任。如果您發(fā)現(xiàn)本站中有涉嫌抄襲或描述失實的內容,請聯(lián)系我們jiasou666@gmail.com 處理,核實后本網(wǎng)站將在24小時內刪除侵權內容。

      上一篇:要在表格內查找箱號
      下一篇:如何給Word中給跨頁表格設置“頂端標題行”(word中的表格跨頁顯示標題)
      相關文章
      亚洲熟妇成人精品一区| 亚洲冬月枫中文字幕在线看 | 亚洲精品高清国产麻豆专区| 亚洲AV中文无码乱人伦下载| 亚洲国产电影av在线网址| 亚洲人成人伊人成综合网无码| 亚洲春黄在线观看| 精品日韩亚洲AV无码| 亚洲成熟xxxxx电影| 亚洲成A人片在线观看无码不卡| 中国亚洲女人69内射少妇| 亚洲中文字幕日产乱码高清app| 国产亚洲精品AA片在线观看不加载| 亚洲区小说区图片区| 亚洲精品国产V片在线观看| 亚洲国产精品视频| 亚洲AⅤ无码一区二区三区在线 | 亚洲?v女人的天堂在线观看| 国产午夜亚洲精品不卡免下载| 国产精品亚洲va在线观看| 夜色阁亚洲一区二区三区| 亚洲国产精品成人网址天堂 | 亚洲av无码一区二区三区人妖| 亚洲爆乳少妇无码激情| 亚洲成a∧人片在线观看无码| 亚洲AV永久无码精品网站在线观看| 亚洲国产精品久久久久秋霞小 | 国产亚洲精品成人AA片| 中国亚洲呦女专区| 亚洲国产欧洲综合997久久| 337P日本欧洲亚洲大胆艺术图 | 久久精品国产亚洲AV电影网| mm1313亚洲精品无码又大又粗| 亚洲午夜福利精品久久| 亚洲性猛交XXXX| 亚洲av日韩av不卡在线观看| 久久亚洲AV成人无码| 99999久久久久久亚洲| 亚洲成AV人影片在线观看| 亚洲成aⅴ人片久青草影院| 国产亚洲精品激情都市|