Python爬蟲入門BeautifulSoup模塊

      網友投稿 858 2022-05-30

      BeautifulSoup

      BeautifulSoup是一個模塊,該模塊用于接收一個HTML或XML字符串,

      然后將其進行格式化,之后遍可以使用他提供的方法進行快速查找指定元素,

      從而使得在HTML或XML中查找指定元素變得簡單。

      安裝:

      pip install BeautifulSoup4

      1

      導入:

      from bs4 import BeautifulSoup

      1

      beautifulsoup簡單示例:

      soup = BeautifulSoup(text, features="html.parser") # 返回第一個對象 v1 = soup.find("div") v1 = soup.find(id="i1") v1 = soup.find("div", id="i1") # 組合使用 # 返回對象列表 v2 = soup.find_all("div") v2 = soup.find_all(id="i1") v2 = soup.find_all("div", id="i1") # 組合使用 tag.text # 獲取文本 tag.attrs("href") # 獲取屬性

      1

      2

      3

      4

      5

      6

      7

      8

      9

      10

      11

      12

      13

      14

      代碼示例

      from bs4 import BeautifulSoup html_doc = """ The Dormouse's story asdf

      The Dormouse's story總共

      f

      Once upon a time there were three little sisters; and their names were Elsfie, Lacie and Tillie; and they lived at the bottom of a well.
      ad
      sf

      ...

      """ soup = BeautifulSoup(html_doc, features="lxml") # 找到第一個a標簽 tag1 = soup.find(name='a') # 找到所有的a標簽 tag2 = soup.find_all(name='a') # 找到id=link2的標簽 tag3 = soup.select('#link2')

      1

      2

      3

      4

      5

      6

      7

      8

      9

      10

      11

      12

      13

      14

      15

      16

      17

      18

      19

      20

      21

      22

      23

      24

      25

      26

      27

      28

      29

      30

      31

      32

      33

      34

      35

      1、 name,標簽名稱

      tag = soup.find('a') name = tag.name # 獲取 print(name) tag.name = 'span' # 設置 print(soup)

      1

      2

      3

      4

      5

      6

      2、 attrs,標簽屬性

      tag = soup.find('a') attrs = tag.attrs # 獲取 print(attrs) tag.attrs = {'ik':123} # 設置 tag.attrs['id'] = 'value' # 設置 print(soup)

      1

      2

      3

      4

      5

      6

      7

      3、 children,所有子標簽

      body = soup.find('body') v = body.children

      1

      2

      4、 descendants,所有子子孫孫標簽

      body = soup.find('body') v = body.descendants

      1

      2

      5、 clear,將標簽的所有子標簽全部清空(保留標簽名)

      tag = soup.find('body') tag.clear() print(soup)

      1

      2

      3

      6、decompose,遞歸的刪除所有的標簽

      body = soup.find('body') body.decompose() print(soup)

      1

      2

      3

      7、extract,遞歸的刪除所有的標簽,并獲取刪除的標簽

      body = soup.find('body') v = body.extract() print(soup)

      1

      2

      3

      8、 decode,轉換為字符串(含當前標簽);decode_contents(不含當前標簽)

      body = soup.find('body') v = body.decode() v = body.decode_contents() print(v)

      1

      2

      3

      4

      9、encode,轉換為字節(含當前標簽);encode_contents(不含當前標簽)

      body = soup.find('body') v = body.encode() v = body.encode_contents() print(v)

      1

      2

      3

      4

      10、find,獲取匹配的第一個標簽

      tag = soup.find('a') print(tag) tag = soup.find(name='a', attrs={'class': 'sister'}, recursive=True, text='Lacie') tag = soup.find(name='a', class_='sister', recursive=True, text='Lacie') print(tag)

      1

      2

      3

      4

      5

      6

      7

      8

      9

      11、find_all,獲取匹配的所有標簽

      tags = soup.find_all('a') print(tags) tags = soup.find_all('a',limit=1) print(tags) tags = soup.find_all(name='a', attrs={'class': 'sister'}, recursive=True, text='Lacie') tags = soup.find_all(name='a', class_='sister', recursive=True, text='Lacie') print(tags) ####### 列表 ####### v = soup.find_all(name=['a','div']) print(v) v = soup.find_all(class_=['sister0', 'sister']) print(v) v = soup.find_all(text=['Tillie']) print(v, type(v[0])) v = soup.find_all(id=['link1','link2']) print(v) v = soup.find_all(href=['link1','link2']) print(v) ####### 正則 ####### import re rep = re.compile('p') rep = re.compile('^p') # 所有以p開頭 v = soup.find_all(name=rep) print(v) rep = re.compile('sister.*') v = soup.find_all(class_=rep) print(v) rep = re.compile('http://www.oldboy.com/static/.*') v = soup.find_all(href=rep) print(v) ####### 方法篩選 ####### def func(tag): return tag.has_attr('class') and tag.has_attr('id') v = soup.find_all(name=func) print(v) ## get,獲取標簽屬性 tag = soup.find('a') v = tag.get('id') print(v)

      1

      2

      3

      4

      5

      6

      7

      8

      9

      10

      11

      12

      13

      14

      15

      16

      17

      18

      19

      20

      21

      22

      23

      24

      25

      26

      27

      28

      29

      30

      31

      32

      33

      34

      35

      36

      37

      Python爬蟲入門BeautifulSoup模塊

      38

      39

      40

      41

      42

      43

      44

      45

      46

      47

      48

      49

      50

      51

      52

      53

      54

      55

      56

      57

      58

      59

      60

      12、has_attr,檢查標簽是否具有該屬性

      tag = soup.find('a') v = tag.has_attr('id') print(v)

      1

      2

      3

      13、get_text,獲取標簽內部文本內容

      tag = soup.find('a') v = tag.get_text() print(v)

      1

      2

      3

      14、index,檢查標簽在某標簽中的索引位置

      tag = soup.find('body') v = tag.index(tag.find('div')) print(v) tag = soup.find('body') for i, v in enumerate(tag): print(i,v)

      1

      2

      3

      4

      5

      6

      7

      15、 is_empty_element,是否是空標簽(是否可以是空)或者自閉合標簽,

      # 判斷是否是如下標簽: # 'br' , 'hr', 'input', 'img', 'meta','spacer', 'link', 'frame', 'base' tag = soup.find('br') v = tag.is_empty_element print(v)

      1

      2

      3

      4

      5

      6

      16、 當前的關聯標簽

      tag.next tag.next_element tag.next_elements tag.next_sibling tag.next_siblings tag.previous tag.previous_element tag.previous_elements tag.previous_sibling tag.previous_siblings tag.parent tag.parents tag.children tag.descendants

      1

      2

      3

      4

      5

      6

      7

      8

      9

      10

      11

      12

      13

      14

      15

      16

      17

      17、查找某標簽的關聯標簽

      tag.find_next(...) tag.find_all_next(...) tag.find_next_sibling(...) tag.find_next_siblings(...) tag.find_previous(...) tag.find_all_previous(...) tag.find_previous_sibling(...) tag.find_previous_siblings(...) tag.find_parent(...) tag.find_parents(...) # 參數同find_all

      1

      2

      3

      4

      5

      6

      7

      8

      9

      10

      11

      12

      13

      14

      18、 select,select_one, CSS選擇器

      soup.select("title") soup.select("p nth-of-type(3)") soup.select("body a") soup.select("html head title") tag = soup.select("span,a") soup.select("head > title") soup.select("p > a") soup.select("p > a:nth-of-type(2)") soup.select("p > #link1") soup.select("body > a") soup.select("#link1 ~ .sister") soup.select("#link1 + .sister") soup.select(".sister") soup.select("[class~=sister]") soup.select("#link1") soup.select("a#link2") soup.select('a[href]') soup.select('a[) soup.select('a[href^="http://example.com/"]') soup.select('a[href$="tillie"]') soup.select('a[href*=".com/el"]') from bs4.element import Tag def default_candidate_generator(tag): for child in tag.descendants: if not isinstance(child, Tag): continue if not child.has_attr('href'): continue yield child tags = soup.find('body').select("a", _candidate_generator=default_candidate_generator) print(type(tags), tags) from bs4.element import Tag def default_candidate_generator(tag): for child in tag.descendants: if not isinstance(child, Tag): continue if not child.has_attr('href'): continue yield child tags = soup.find('body').select("a", _candidate_generator=default_candidate_generator, limit=1) print(type(tags), tags)

      1

      2

      3

      4

      5

      6

      7

      8

      9

      10

      11

      12

      13

      14

      15

      16

      17

      18

      19

      20

      21

      22

      23

      24

      25

      26

      27

      28

      29

      30

      31

      32

      33

      34

      35

      36

      37

      38

      39

      40

      41

      42

      43

      44

      45

      46

      47

      48

      49

      50

      51

      52

      53

      54

      55

      56

      57

      58

      59

      60

      61

      62

      63

      64

      65

      66

      67

      68

      19、 標簽的內容

      tag = soup.find('span') print(tag.string) # 獲取 tag.string = 'new content' # 設置 print(soup) tag = soup.find('body') print(tag.string) tag.string = 'xxx' print(soup) tag = soup.find('body') v = tag.stripped_strings # 遞歸內部獲取所有標簽的文本 print(v)

      1

      2

      3

      4

      5

      6

      7

      8

      9

      10

      11

      12

      13

      20、append在當前標簽內部追加一個標簽

      tag = soup.find('body') tag.append(soup.find('a')) print(soup) from bs4.element import Tag obj = Tag(name='i',attrs={'id': 'it'}) obj.string = '我是一個新來的' tag = soup.find('body') tag.append(obj) print(soup)

      1

      2

      3

      4

      5

      6

      7

      8

      9

      10

      11

      21、insert在當前標簽內部指定位置插入一個標簽

      from bs4.element import Tag obj = Tag(name='i', attrs={'id': 'it'}) obj.string = '我是一個新來的' tag = soup.find('body') tag.insert(2, obj) print(soup)

      1

      2

      3

      4

      5

      6

      7

      22、 insert_after,insert_before 在當前標簽后面或前面插入

      from bs4.element import Tag obj = Tag(name='i', attrs={'id': 'it'}) obj.string = '我是一個新來的' tag = soup.find('body') tag.insert_before(obj) tag.insert_after(obj) print(soup)

      1

      2

      3

      4

      5

      6

      7

      8

      23、 replace_with 在當前標簽替換為指定標簽

      from bs4.element import Tag obj = Tag(name='i', attrs={'id': 'it'}) obj.string = '我是一個新來的' tag = soup.find('div') tag.replace_with(obj) print(soup)

      1

      2

      3

      4

      5

      6

      7

      24、 創建標簽之間的關系

      tag = soup.find('div') a = soup.find('a') tag.setup(previous_sibling=a) print(tag.previous_sibling)

      1

      2

      3

      4

      25、wrap,將指定標簽把當前標簽包裹起來

      from bs4.element import Tag obj1 = Tag(name='div', attrs={'id': 'it'}) obj1.string = '我是一個新來的' tag = soup.find('a') v = tag.wrap(obj1) print(soup) tag = soup.find('a') v = tag.wrap(soup.find('p')) print(soup)

      1

      2

      3

      4

      5

      6

      7

      8

      9

      10

      11

      12

      26、 unwrap,去掉當前標簽,將保留其包裹的標簽

      tag = soup.find('a') v = tag.unwrap() print(soup)

      1

      2

      3

      參考:

      武沛齊:http://www.cnblogs.com/wupeiqi/articles/6283017.html

      官方文檔:http://beautifulsoup.readthedocs.io/zh_CN/v4.4.0/

      Python

      版權聲明:本文內容由網絡用戶投稿,版權歸原作者所有,本站不擁有其著作權,亦不承擔相應法律責任。如果您發現本站中有涉嫌抄襲或描述失實的內容,請聯系我們jiasou666@gmail.com 處理,核實后本網站將在24小時內刪除侵權內容。

      上一篇:python爬蟲入門requests模塊
      下一篇:JS逆向|使用express框架開啟服務并替換加密字符串
      相關文章
      蜜臀亚洲AV无码精品国产午夜.| 亚洲免费视频网址| 亚洲一级毛片免费在线观看| 亚洲人成影院在线| 亚洲AV永久精品爱情岛论坛| 亚洲国产一二三精品无码| 精品国产日韩亚洲一区| 亚洲国产成人久久综合区| 亚洲av高清在线观看一区二区| 最新亚洲人成无码网www电影| 亚洲日本VA午夜在线电影| 亚洲真人无码永久在线观看| 亚洲熟妇少妇任你躁在线观看| 中文字幕无码精品亚洲资源网久久| 狠狠色香婷婷久久亚洲精品| 亚洲国产日韩综合久久精品| 亚洲一久久久久久久久| 亚洲乱码中文字幕在线| 亚洲第一成年免费网站| 国产精品亚洲专区无码唯爱网| 小说专区亚洲春色校园| 亚洲?v女人的天堂在线观看| 亚洲人成人无码网www国产| 亚洲中文字幕无码爆乳av中文| 亚洲综合色自拍一区| 精品国产综合成人亚洲区| 亚洲AV无码1区2区久久| 亚洲成色999久久网站| 亚洲综合一区二区| 日本亚洲精品色婷婷在线影院| 亚洲私人无码综合久久网| 成人亚洲综合天堂| 国产亚洲精品自在线观看| 亚洲av无码一区二区三区乱子伦| 亚洲人成影院在线| 亚洲综合久久精品无码色欲| 亚洲AV成人一区二区三区观看| 另类小说亚洲色图| 亚洲日韩欧洲乱码AV夜夜摸| 亚洲av日韩av激情亚洲| 亚洲国产精品综合久久2007|