[Python從零到壹] 五.網(wǎng)絡爬蟲之BeautifulSoup基礎語法萬字詳解 | 【生長吧!Python】
前一篇文章講述了基于正則表達式的Python爬蟲以及Python常用的爬蟲模塊,而Python強大的網(wǎng)絡支持能力和豐富的擴展包是否也提供了相關的爬蟲包呢?答案是肯定的。本篇文章主要講解BeautifulSoup技術。BeautifulSoup是一個可以從HTML或XML文件中提取數(shù)據(jù)的Python庫,一個分析HTML或XML文件的解析器。本章將介紹BeautifulSoup技術,包括安裝過程和基礎語法,并通過分析HTML實例來介紹BeautifulSoup解析網(wǎng)頁的過程。

https://blog.csdn.net/Eastmount
https://github.com/eastmountyxz/Python-zero2one
文章目錄
一.安裝BeautifulSoup
1.安裝過程
2.pip安裝擴展包用法
二.快速開始BeautifulSoup解析
1.BeautifulSoup解析HTML
2.簡單獲取網(wǎng)頁標簽信息
3.定位標簽并獲取內容
三.深入了解BeautifulSoup爬蟲
1.BeautifulSoup對象
2.遍歷文檔樹
3.搜索文檔樹
四.BeautifulSoup簡單爬取個人博客網(wǎng)站
五.本章小結
一.安裝BeautifulSoup
BeautifulSoup是一個可以從HTML或XML文件中提取數(shù)據(jù)的Python擴展庫。BeautifulSoup通過合適的轉換器實現(xiàn)文檔導航、查找、修改文檔等。它可以很好的處理不規(guī)范標記并生成剖析樹(Parse Tree);它提供的導航功能(Navigating),可以簡單又快速地搜索剖析樹以及修改剖析樹。BeautifulSoup技術通常用來分析網(wǎng)頁結構,抓取相應的Web文檔,對于不規(guī)則的HTML文檔,它提供了一定的補全功能,從而節(jié)省了開發(fā)者的時間和精力。本章將帶領您走進BeautifulSoup爬蟲的海洋,下面先簡單介紹BeautifulSoup技術的安裝過程。
1.安裝過程
BeautifulSoup安裝主要通過pip指令進行。如下圖所示,在命令提示符CMD環(huán)境下,通過cd命令進入Python3.7安裝目錄的Scripts文件夾下,再調用“pip install bs4”命令安裝,bs4即BeautifulSoup4。安裝命令如下:
cd C:\Software\Program Software\Python37\Scripts
pip install bs4
當BeautifulSoup擴展包安裝成功后,在Python3.7中輸入“from bs4 import BeautifulSoup”語句導入該擴展包,測試安裝是否成功,如果沒有異常報錯即安裝成功,如下圖所示。
輸入代碼如下:
from bs4 import BeautifulSoup
BeautifulSoup有兩個常用版本:BeautifulSoup 3和BeautifulSoup 4(簡稱BS4)。BeautifulSoup 3目前已經停止開發(fā),項目中使用更多的是BeautifulSoup 4,現(xiàn)已移植到BS4擴展包中。建議讀者安裝BeautifulSoup4,因為BeautifulSoup3已經停止更新;同時如果讀者使用的是Anaconda等集成開發(fā)環(huán)境,它的BeautifulSoup擴展包是已經安裝了的,可以直接使用。
BeautifulSoup支持Python標準庫中的HTML解析器,還支持一些第三方的解析器,其中一個是 lxml,另一個可供選擇的解析器是純Python實現(xiàn)的html5lib,html5lib的解析方式與瀏覽器相同。Windows系統(tǒng)下調用pip或easy_install命令安裝lxml,代碼如下:
pip install lxml
easy_install lxml
下表列出了BeautifulSoup官方文檔中主要的解析器和它們的優(yōu)缺點。
2.pip安裝擴展包用法
前面的安裝過程調用pip命令,那么它究竟是什么呢?
pip是一個現(xiàn)代的、通用的Python包管理工具,提供了對Python包(Package)的查找、下載、安裝及卸載功能。Python可以通過easy_install或者pip命令安裝各種各樣的包,其中easy_insall提供了“傻瓜式”的在線一鍵安裝模塊的方式,而pip是easy_install的改進版,提供更好的提示信息以及下載、卸載Python包等功能,常見用法如下表所示。
在Python2舊版本開發(fā)環(huán)境中使用pip命令之前,需要安裝pip軟件(下載pip-Win_1.7.exe軟件直接安裝),再調用pip命令對具體的擴展包進行安裝,目前Python3已經內嵌pip工具供大家直接使用。
http://pypi.python.org/pypi/pip#downloads
Python2舊版本安裝完pip工具后,它會在Python安裝目錄下添加Scripts目錄。在Python2.7中,安裝的擴展包會在目錄Scripts文件夾下添加相應的文件,甚至需要將此目錄(Scripts)加入環(huán)境變量中。安裝pip成功后,通過命令“pip install bs4”安裝BeautifulSoup 4軟件。
下表顯示了pip常用命令,其中最常用的命令是“install”和“uninstall”。
Usage: 基本用法 pip
最后推薦官方文檔:
https://www.crummy.com/software/BeautifulSoup/bs4/doc.zh/
https://pypi.org/project/beautifulsoup4/
二.快速開始BeautifulSoup解析
下面這段HTML代碼(test04_01.html)是關于李白的一首詩和描述,它將作為例子被多次使用。HTML主要采用節(jié)點對的形式進行編寫,如< html>< /html>、< body>< /body>、< a>< /a>等。
靜夜思
窗前明月光,
疑似地上霜。
舉頭望明月,
低頭思故鄉(xiāng)。
李白(701年-762年),字太白,號青蓮居士,又號“謫仙人”, 唐代偉大的浪漫主義詩人,被后人譽為“詩仙”,與 杜甫 并稱為“李杜”,為了與另兩位詩人 李商隱、 杜牧即“小李杜”區(qū)別,杜甫與李白又合稱“大李杜”。 其人爽朗大方,愛飲酒...
...
通過瀏覽器打開該網(wǎng)頁顯示如下圖所示。
1.BeautifulSoup解析HTML
下列代碼是通過BeautifulSoup解析這段HTML網(wǎng)頁,創(chuàng)建一個 BeautifulSoup對象,然后調用BeautifulSoup包的prettify()函數(shù)格式化輸出網(wǎng)頁。
# coding=utf-8 from bs4 import BeautifulSoup #HTML源碼 html = """
靜夜思
窗前明月光,
疑似地上霜。
舉頭望明月,
低頭思故鄉(xiāng)。
李白(701年-762年),字太白,號青蓮居士,又號“謫仙人”, 唐代偉大的浪漫主義詩人,被后人譽為“詩仙”,與 杜甫 并稱為“李杜”,為了與另兩位詩人 李商隱、 杜牧即“小李杜”區(qū)別,杜甫與李白又合稱“大李杜”。 其人爽朗大方,愛飲酒...
...
""" #按照標準的縮進格式的結構輸出 soup = BeautifulSoup(html) print(soup.prettify())代碼輸出結果如下所示,是網(wǎng)頁的HTML源代碼。soup.prettify()將soup內容格式化輸出,用BeautifulSoup 解析HTML文檔時,它會將HTML文檔類似DOM文檔樹一樣處理。
注意:前面定義的HTML源碼標簽對是缺少結束標簽的,即沒有和標簽,但是使用prettify()函數(shù)輸出的結果已經自動補齊了結束標簽,這是BeautifulSoup的一個優(yōu)點。BeautifulSoup即使得到了一個損壞的標簽,它也產生一個轉換DOM樹,并盡可能和您原文檔內容含義一致,這種措施通常能夠幫助您更正確地搜集數(shù)據(jù)。另外,我們還可以用本地HTML文件來創(chuàng)建BeautifulSoup對象,代碼如下所示:
soup = BeautifulSoup(open(‘test04_01.html’))
2.簡單獲取網(wǎng)頁標簽信息
當我們已經使用BeautifulSoup解析了網(wǎng)頁之后,如果您想獲取某個標簽之間的信息,怎么實現(xiàn)呢?比如獲取標簽< title>和< /title>標題內容。下面的test02.py代碼就將教大家使用BeautifulSoup技術獲取標簽信息的用法,更系統(tǒng)的知識將在第三部分介紹。
# coding=utf-8 from bs4 import BeautifulSoup #創(chuàng)建本地文件soup對象 soup = BeautifulSoup(open('test04_01.html'), "html.parser") #獲取標題 title = soup.title print('標題:', title)
該段代碼獲取HTML的標題,輸出結果為“< title>BeautifulSoup技術< /title>”。同樣,可以獲取其他標簽,如HTML的頭部(head)。
#獲取標題 head = soup.head print('頭部:', head)
輸出結果為“< head>< title>BeautifulSoup技術< /title>< /head>”。再比如獲取網(wǎng)頁中的超鏈接,通過調用“soup.a”代碼獲取超鏈接(< a> a>)。
#獲取a標簽 ta = soup.a print('超鏈接內容:', ta)
輸出為“< a class=“poet” href=“http://example.com/dufu” id=“l(fā)ink1”>杜甫< /a>”。其中HTML中包括三個超鏈接,分別對應杜甫、李商隱、杜牧,而soup.a只返回第一個超鏈接。那么,如果想獲取所有的超鏈接,怎么寫代碼實現(xiàn)呢?后面介紹的find_all()函數(shù)就可以實現(xiàn)。
最后給出輸出第一個段落(< p>)的代碼。
#獲取p標簽 tp = soup.p print('段落內容:', tp)
輸出結果為“< p class=“title”>< b>靜夜思< /b>< /p>”,其中unicode()函數(shù)用于轉碼,否則輸出中文亂碼。上面代碼輸出內容如下圖所示。
3.定位標簽并獲取內容
前面部分簡單介紹了BeautifulSoup標簽,可以獲取title、p、a等標簽內容,但是如何獲取這些已經定位了的指定標簽對應的內容呢?下面這段代碼是獲取網(wǎng)頁中所有的超鏈接標簽及對應的url內容。
#從文檔中找到的所有標簽鏈接 for a in soup.find_all('a'): print(a) #獲取的超鏈接 for link in soup.find_all('a'): print(link.get('href'))
輸出結果如下圖所示。find_all(‘a’)函數(shù)是查找所有< a>標簽,并通過for循環(huán)輸出結果;第二個for循環(huán)是通過“l(fā)ink.get(‘href’)”代碼獲取超鏈接標簽中的url網(wǎng)址。
比如“< a class=“poet” href=“http://example.com/dufu” id=“l(fā)ink1”>杜甫< /a>”,通過調用find_all(‘a’)函數(shù)獲取所有超鏈接的HTML源碼,再調用get(‘href’)獲取超鏈接的內容,href屬性對應的值為:http://example.com/dufu。如果想獲取文字內容,則調用get_text()函數(shù)。
for a in soup.find_all('a'): print a.get_text()
輸出結果為< a>和< /a>之間的鏈接內容,即如下所示。
杜甫
李商隱
杜牧
后面文章將詳細介紹具體的定位節(jié)點方法,結合實際例子進行分析講解。
三.深入了解BeautifulSoup爬蟲
第一部分我們介紹了BeautifulSoup爬蟲的安裝過程及簡介,第二部分我們又快速學習了BeautifulSoup技術,而這部分將深入介紹BeautifulSoup技術的語法及用法。
1.BeautifulSoup對象
BeautifulSoup將復雜的HTML文檔轉換成一個樹形結構,每個節(jié)點都是Python對象,BeautifulSoup官方文檔將所有的對象歸納為以下四種:
Tag
NavigableString
BeautifulSoup
Comment
下面我們開始詳細介紹。
(1) Tag
Tag對象表示XML或HTML文檔中的標簽,通俗地講就是HTML中的一個個標簽,該對象與HTML或XML原生文檔中的標簽相同。Tag有很多方法和屬性,BeautifulSoup中定義為soup.Tag,其中Tag為HTML中的標簽,比如head、title等,其結果返回完整的標簽內容,包括標簽的屬性和內容等。例如:
靜夜思
李商隱上面HTML代碼中,title、p、a等都是標簽,起始標簽(< title>、< p>、< a>)和結束標簽(< /title>、< /p>、< /a>)之間加上內容就是Tag。標簽獲取方法代碼如下:
通過BeautifulSoup對象讀者可以輕松地獲取標簽和標簽內容,這比我們前一章的正則表達式爬蟲方便很多。同時注意,它返回的內容是所有標簽中的第一個符合要求的標簽,比如“print soup.a”語句返回第一個超鏈接標簽。
下面這行代碼是輸出該對象的類型,即Tag對象。
print type(soup.html) #
Tag有很多方法和屬性,在遍歷文檔樹和搜索文檔樹中有詳細講解。現(xiàn)在介紹一下Tag中最重要的屬性:name和attrs。
1)name
name屬性用于獲取文檔樹的標簽名字,如果想獲取head標簽的名字,只要使用soup.head.name代碼即可,對于內部標簽,輸出的值便為標簽本身的名稱。soup對象本身比較特殊,它的name為document,代碼如下:
2)attrs
attrs是屬性(attributes)的英文簡稱,屬性是網(wǎng)頁標簽的重要內容。一個標簽(Tag)可能有很多個屬性,例如上面的例子:
它存在兩個屬性,一個是class屬性,對應的值為“poet”;一個是id屬性,對應的值為“l(fā)ink1”。Tag屬性操作方法與Python字典相同,獲取p標簽的所有屬性代碼如下,得到一個字典類型的值,它獲取的是第一個段落p的屬性及屬性值。
print(soup.p.attrs) #{u'class': [u'title']}
如果需要單獨獲取某個屬性,使用如下兩種方法獲取超鏈接的class屬性值。
print(soup.a['class']) #[u'poet'] print(soup.a.get('class')) #[u'poet']
下圖為HTML源代碼,獲取第一個超鏈接為class=‘poet’。
BeautifulSoup每個標簽tag可能有很多個屬性,可以通過“.attrs”獲取屬性,tag的屬性可以被修改、刪除或添加。下面舉個簡單的例子進行介紹,完整代碼為test03.py文件。
# coding=utf-8 from bs4 import BeautifulSoup soup = BeautifulSoup('Eastmount',"html.parser") tag = soup.b print(tag) print(type(tag)) #Name print(tag.name) print(tag.string) #Attributes print(tag.attrs) print(tag['class']) print(tag.get('id')) #修改屬性 增加屬性name tag['class'] = 'abc' tag['id'] = '1' tag['name'] = '2' print(tag) #刪除屬性 del tag['class'] del tag['name'] print(tag) print(tag['class']) #KeyError: 'class'
輸出結果如圖所示,包括修改屬性class、id,增加屬性name,刪除屬性class、name等結果。
注意:HTML定義了一系列可以包含多個值的屬性,最常見的可以包含多個值的屬性是 class,還有一些屬性如rel、rev、accept-charset、headers、accesskey等,BeautifulSoup中多值屬性的返回類型是list,具體操作請讀者在BeautifulSoup官網(wǎng)進行學習。
(2) NavigableString
前面講述了獲取標簽的Name和Attributes,那么如果想獲取標簽對應的內容,怎么實現(xiàn)呢?你可能已經猜到了,使用string屬性即可獲取標簽<>與>之間的內容。比如:
print(soup.a['class']) #[u'poet'] print(soup.a['class'].string) #杜甫
獲取“< a href=“http://example.com/dufu” class=“poet” id=“l(fā)ink1”>杜甫< /a>”之間的內容,它是不是比前一篇文章介紹的正則表達式方便很多。
BeautifulSoup用NavigableString類來包裝tag中的字符串,NavigableString表示可遍歷的字符串。一個NavigableString字符串與Python中的Unicode字符串相同,并且支持包含在遍歷文檔樹和搜索文檔樹中的一些特性。利用下述代碼可以查看NavigableString的類型。
from bs4 import BeautifulSoup soup = BeautifulSoup(open('test04_01.html'), "html.parser") tag = soup.title print(type(tag.string)) #
注意,舊版本Python2需要通過unicode()方法可以直接將NavigableString對象轉換成Unicode字符串,再進行相關的操作。如果標簽中包含的字符串不能編輯,但是可以被替換成其他的字符串,用replace_with()方法實現(xiàn)。代碼如下:
tag.string.replace_with("替換內容") print(tag) #
replace_with()函數(shù)將“< title>BeautifulSoup技術< /title>”中的標題內容由“BeautifulSoup技術”替換成了“替換內容”。NavigableString對象支持遍歷文檔樹和搜索文檔樹中定義的大部分屬性,而字符串不能包含其它內容(tag對象卻能夠包含字符串或是其它tag),字符串不支持“.contents”或“.string ”屬性或find()方法。
官方文檔提醒:在舊版本Python2中,如果想在BeautifulSoup之外使用NavigableString對象,需要調用unicode()方法,將該對象轉換成普通的Unicode字符串,否則就算BeautifulSoup的方法已經執(zhí)行結束,該對象的輸出也會帶有對象的引用地址,從而浪費內存。
(3) BeautifulSoup
BeautifulSoup對象表示的是一個文檔的全部內容,通常情況下把它當作Tag對象,該對象支持遍歷文檔樹和搜索文檔樹中描述的大部分的方法,詳見下一小節(jié)。下面代碼是輸出soup對象的類型,輸出結果就是BeautifulSoup對象類型。
print(type(soup)) #
注意:因為 BeautifulSoup 對象并不是真正的HTML或XML的標簽tag,所以它沒有name和attribute屬性。但有時查看它的“.name”屬性是很方便的,故BeautifulSoup對象包含了一個值為“[document]”的特殊屬性“soup.name”。下述代碼即是輸出BeautifulSoup對象的name屬性,其值為“[document]”。
print(soup.name) # u'[document]'
(4) Comment
Comment對象是一個特殊類型的NavigableString對象,它用于處理注釋對象。下面這個示例代碼用于讀取注釋內容,代碼如下:
markup = "" soup = BeautifulSoup(markup, "html.parser") comment = soup.b.string print(type(comment)) #
輸出結果如下圖所示:
2.遍歷文檔樹
介紹完這四個對象后,下面簡單介紹遍歷文檔樹和搜索文檔樹及常用的函數(shù)。在BeautifulSoup中,一個標簽(Tag)可能包含多個字符串或其它的標簽,這些稱為這個標簽的子標簽,下面從子節(jié)點開始介紹。
(1) 子節(jié)點
BeautifulSoup中通過contents值獲取標簽(Tag)的子節(jié)點內容,并以列表形式輸出。以test04_01.html代碼為例,獲取標簽子節(jié)點內容代碼如下:
# coding=utf-8 from bs4 import BeautifulSoup soup = BeautifulSoup(open('test04_01.html'), "html.parser") print(soup.head.contents) #['\n',
由于標題間< title>和< /title>存在兩個換行,所以獲取的列表包括了兩個換行,如個需要提取第二個元素,代碼如下:
另一個獲取子節(jié)點的方法是children關鍵字,但它返回的不是一個list,可以通過for循環(huán)來獲取所有子節(jié)點內容。方法如下:
print(soup.head.children) for child in soup.head.children: print(child) #
前面介紹的contents和children屬性僅包含標簽的直接子節(jié)點,如果需要獲取Tag的所有子節(jié)點,甚至是孫節(jié)點,則需要使用descendants屬性,方法如下:
for child in soup.descendants: print(child)
輸出如下圖所示,所有的HTML標簽都打印出來。
(2) 節(jié)點內容
如果標簽只有一個子節(jié)點,需要獲取該子節(jié)點的內容,則使用string屬性,輸出子節(jié)點的內容,通常返回最里層的標簽內容。比如獲取標題內容的代碼如下:
print(soup.head.string) # None print(soup.title.string) # BeautifulSoup技術
當標簽包含多個子節(jié)點時,Tag就會無法確定string獲取哪個子節(jié)點的內容,此時輸出的結果就是None,比如獲取< head>的內容,返回值就是None,因為包括了兩個換行元素。如果需要獲取多個節(jié)點內容時,則使用strings屬性,示例代碼如下:
for content in soup.strings: print(content)
但是輸出的字符串可能包含多余的空格或換行,這里需要使用stripped_strings方法去除多余的空白內容,代碼如下:
for content in soup.stripped_strings: print(content)
運行結果如圖所示。
(3) 父節(jié)點
調用parent屬性定位父節(jié)點,如果需要獲取節(jié)點的標簽名則使用parent.name,代碼如下所示:
p = soup.p print(p.parent) print(p.parent.name) #
...
#body content = soup.head.title.string print(content.parent) print(content.parent.name) #如果需要獲取所有的父節(jié)點,則使用parents屬性循環(huán)獲取,代碼如下:
content = soup.head.title.string for parent in content.parents: print(parent.name)
(4) 兄弟節(jié)點
兄弟節(jié)點是指和本節(jié)點位于同一級的節(jié)點,其中next_sibling 屬性是獲取該節(jié)點的下一個兄弟節(jié)點,previous_sibling 則與之相反,取該節(jié)點的上一個兄弟節(jié)點,如果節(jié)點不存在,則返回None。
print(soup.p.next_sibling)
print(soup.p.prev_sibling)
注意:實際文檔中的tag的next_sibling 和previous_sibling 屬性通常是字符串或空白,因為空白或者換行也可以被視作一個節(jié)點,所以得到的結果可能是空白或者換行。同理,通過next_siblings和previous_siblings屬性可以獲取當前節(jié)點的所有兄弟節(jié)點,再調用循環(huán)迭代輸出。
(5) 前后節(jié)點
調用屬性next_element可以獲取下一個節(jié)點,調用屬性previous_element可以獲取上一個節(jié)點,代碼舉例如下:
print(soup.p.next_element)
print(soup.p.previous_element)
同理,通過next_siblings和previous_elements屬性可以獲取當前節(jié)點的所有兄弟節(jié)點,并調用循環(huán)迭代輸出。注意,如果提示錯誤“TypeError: an integer is required”,則需要增加unicode()函數(shù)轉換成中文編碼輸出。
3.搜索文檔樹
urls = soup.find_all('a') for u in urls: print(u) # 杜甫 # 李商隱 # 杜牧
輸出結果如下圖所示:
注意:如果你報錯“‘NoneType’ object is not callable using ‘find_all’ in BeautifulSoup”,其原因是需要安裝BeautifulSoup4版本或bs4,因為方法find_all()是屬于該版本。而BeautifulSoup3使用的方法如下所示:
from BeautifulSoup import BeautifulSoup
soup.findAll(‘p’, align=“center”)
同樣,該函數(shù)支持傳入正則表達式作為參數(shù),BeautifulSoup會通過正則表達式的match() 來匹配內容。下面例子中找出所有以b開頭的標簽示例:
import re for tag in soup.find_all(re.compile("^b")): print(tag.name) # body # b # br # br
其輸出結果包括字母“b”的標簽名,如body、b、br、br等。如果想獲取標簽a和標簽b的值,則使用下面的函數(shù):
soup.find_all([“a”, “b”])
注意find_all()函數(shù)是可以接受參數(shù)進行指定節(jié)點查詢的,代碼如下:
soup.find_all(id='link1') # 杜甫
也可以接受多個參數(shù),比如:
soup.find_all("a", class_="poet") # 杜甫 # 李商隱 # 杜牧
http://beautifulsoup.readthedocs.io/zh_CN/latest/
四.BeautifulSoup簡單爬取個人博客網(wǎng)站
http://www.eastmountyxz.com/
現(xiàn)在需要爬取博客首頁中四篇文章的標題、超鏈接及摘要內容,比如標題為“再見北理工:憶北京研究生的編程時光”。
首先,通過瀏覽器定位這些元素源代碼,發(fā)現(xiàn)它們之間的規(guī)律,這稱為DOM樹文檔節(jié)點樹分析,找到所需爬取節(jié)點對應的屬性和屬性值,如圖所示。
標題位于< div class=”essay”>< /div>位置下,它包括一個< h1>< /h1>記錄標題,一個< p>< /p>記錄摘要信息,其余三篇文章節(jié)點為< div class=”essay1”>< /div>、< div class=”essay2”>< /div>和< div class=”essay3”>< /div>。現(xiàn)在需要獲取第一篇文章標題、超鏈接和摘要的代碼如下:
# -*- coding: utf-8 -*- import re import urllib.request from bs4 import BeautifulSoup url = "http://www.eastmountyxz.com/" page = urllib.request.urlopen(url) soup = BeautifulSoup(page, "html.parser") essay0 = soup.find_all(attrs={"class":"essay"}) for tag in essay0: print(tag) print('') #換行 print(tag.a) print(tag.find("a").get_text()) print(tag.find("a").attrs['href']) content = tag.find("p").get_text() print(content.replace(' ','')) print('')
輸出結果如下圖所示,其中代碼soup.find_all(attrs={“class”:“essay”})用于獲取節(jié)點< div class=“essay”>的內容,然后采用循環(huán)輸出,但該class類型只包括了一段內容。接著再定位div中的超鏈接,通過tag.find(“a”).get_text()獲取內容,tag.find(“a”).attrs[‘href’]獲取超鏈接url,最后獲取段落摘要。
同理,爬取其余文章的代碼如下,通過循環(huán)獲取essay1、essay2、essay3內容,這些div布局中的格式都一樣,包括一個標題和一個摘要信息,代碼如下:
#整理輸出 i = 1 while i<=3: num = "essay" + str(i) essay = soup.find_all(attrs={"class":num}) for tag in essay: print(tag.find("a").get_text()) print(tag.find("a").attrs['href']) content = tag.find("p").get_text() print(content.replace(' ','')) i += 1 print('')
輸出結果如下:
整個BeautifulSoup爬蟲已經講完了,是不是比前面的正則表達式方便很多,而且爬取的函數(shù)也更加智能。后面將結合案例深入講解BeautifulSoup實際操作,包括爬取電影信息、存儲數(shù)據(jù)庫等內容。
五.總結
一方面是它具有智能化爬取網(wǎng)頁信息的強大功能,對比前面的正則表達式爬蟲,您就能體會到它的便捷和適用性,BeautifulSoup通過載入整個網(wǎng)頁文檔并調用相關函數(shù)定位所需信息的節(jié)點,再爬取相關內容.
該系列所有代碼-:
https://github.com/eastmountyxz/Python-zero2one
前文賞析:
[Python從零到壹] 一.為什么我們要學Python及基礎語法詳解
[Python從零到壹] 二.語法基礎之條件語句、循環(huán)語句和函數(shù)
[Python從零到壹] 三.語法基礎之文件操作、CSV文件讀寫及面向對象
[Python從零到壹] 四.網(wǎng)絡爬蟲之入門基礎及正則表達式抓取博客案例
[Python從零到壹] 五.網(wǎng)絡爬蟲之BeautifulSoup基礎語法萬字詳解
感恩女神,感恩思遠~
感恩與各位在華為云社區(qū)遇見,共勉!
原文地址:https://blog.csdn.net/Eastmount/article/details/108737755
【生長吧!Python】有獎征文火熱進行中:https://bbs.huaweicloud.com/blogs/278897
(By:娜璋之家 Eastmount 2021-07-08 夜于武漢)
參考文獻如下:
Python 網(wǎng)絡
版權聲明:本文內容由網(wǎng)絡用戶投稿,版權歸原作者所有,本站不擁有其著作權,亦不承擔相應法律責任。如果您發(fā)現(xiàn)本站中有涉嫌抄襲或描述失實的內容,請聯(lián)系我們jiasou666@gmail.com 處理,核實后本網(wǎng)站將在24小時內刪除侵權內容。
版權聲明:本文內容由網(wǎng)絡用戶投稿,版權歸原作者所有,本站不擁有其著作權,亦不承擔相應法律責任。如果您發(fā)現(xiàn)本站中有涉嫌抄襲或描述失實的內容,請聯(lián)系我們jiasou666@gmail.com 處理,核實后本網(wǎng)站將在24小時內刪除侵權內容。