Python爬蟲 | 微博熱搜定時爬取,堪稱摸魚神器

      網(wǎng)友投稿 945 2025-03-31

      大家好,我是丁小杰。

      相信大家在工作無聊時,總想掏出手機(jī),看看微博熱搜在討論什么有趣的話題,但又不方便直接打開微博瀏覽,今天就和大家分享一個有趣的小爬蟲,定時采集微博熱搜榜&熱評,下面讓我們來看看具體的實(shí)現(xiàn)方法。

      頁面分析

      熱榜首頁:https://s.weibo.com/top/summary?cate=realtimehot

      熱榜首頁的榜單中共五十條數(shù)據(jù),在這個頁面,我們需要獲取排行、熱度、標(biāo)題,以及詳情頁的鏈接。

      我們打開頁面后要先 登錄,之后使用 F12 打開開發(fā)者工具,Ctrl + R 刷新頁面后找到第一條數(shù)據(jù)包。這里需要記錄一下自己的 Cookie 與 User-Agent。

      對于標(biāo)簽的定位,直接使用 Google 工具獲取標(biāo)簽的 xpath 表達(dá)式即可。

      對于詳情頁,我們需要獲取評論時間、用戶名稱、轉(zhuǎn)發(fā)次數(shù)、評論次數(shù)、次數(shù)、評論內(nèi)容這部分信息。

      Python爬蟲 | 微博熱搜定時爬取,堪稱摸魚神器

      方法與熱搜頁采集方式基本相同,下面看看如何用代碼實(shí)現(xiàn)!

      采集代碼

      首先導(dǎo)入所需要的模塊。

      import requests from time import sleep import pandas as pd import numpy as np from lxml import etree import re

      定義全局變量。

      headers:請求頭

      all_df:DataFrame,保存采集的數(shù)據(jù)

      headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.54 Safari/537.36', 'Cookie': '''你的Cookie''' } all_df = pd.DataFrame(columns=['排行', '熱度', '標(biāo)題', '評論時間', '用戶名稱', '轉(zhuǎn)發(fā)次數(shù)', '評論次數(shù)', '次數(shù)', '評論內(nèi)容'])

      熱搜榜采集代碼,通過 requests 發(fā)起請求,獲取詳情頁鏈接后,跳轉(zhuǎn)進(jìn)入詳情頁采集 get_detail_page。

      def get_hot_list(url): ''' 微博熱搜頁面采集,獲取詳情頁鏈接后,跳轉(zhuǎn)進(jìn)入詳情頁采集 :param url: 微博熱搜頁鏈接 :return: None ''' page_text = requests.get(url=url, headers=headers).text tree = etree.HTML(page_text) tr_list = tree.xpath('//*[@id="pl_top_realtimehot"]/table/tbody/tr') for tr in tr_list: parse_url = tr.xpath('./td[2]/a/@href')[0] detail_url = 'https://s.weibo.com' + parse_url title = tr.xpath('./td[2]/a/text()')[0] try: rank = tr.xpath('./td[1]/text()')[0] hot = tr.xpath('./td[2]/span/text()')[0] except: rank = '置頂' hot = '置頂' get_detail_page(detail_url, title, rank, hot)

      根據(jù)詳情頁鏈接,解析所需頁面數(shù)據(jù),并保存到全局變量 all_df 中,對于每個熱搜只采集熱評前三條,熱評不夠則跳過。

      def get_detail_page(detail_url, title, rank, hot): ''' 根據(jù)詳情頁鏈接,解析所需頁面數(shù)據(jù),并保存到全局變量 all_df :param detail_url: 詳情頁鏈接 :param title: 標(biāo)題 :param rank: 排名 :param hot: 熱度 :return: None ''' global all_df try: page_text = requests.get(url=detail_url, headers=headers).text except: return None tree = etree.HTML(page_text) result_df = pd.DataFrame(columns=np.array(all_df.columns)) # 爬取3條熱門評論信息 for i in range(1, 4): try: comment_time = tree.xpath(f'//*[@id="pl_feedlist_index"]/div[4]/div[{i}]/div[2]/div[1]/div[2]/p[1]/a/text()')[0] comment_time = re.sub('\s','',comment_time) user_name = tree.xpath(f'//*[@id="pl_feedlist_index"]/div[4]/div[{i}]/div[2]/div[1]/div[2]/p[2]/@nick-name')[0] forward_count = tree.xpath(f'//*[@id="pl_feedlist_index"]/div[4]/div[{i}]/div[2]/div[2]/ul/li[1]/a/text()')[1] forward_count = forward_count.strip() comment_count = tree.xpath(f'//*[@id="pl_feedlist_index"]/div[4]/div[{i}]/div[2]/div[2]/ul/li[2]/a/text()')[0] comment_count = comment_count.strip() like_count = tree.xpath(f'//*[@id="pl_feedlist_index"]/div[4]/div[{i}]/div[2]/div[2]/ul/li[3]/a/button/span[2]/text()')[0] comment = tree.xpath(f'//*[@id="pl_feedlist_index"]/div[4]/div[{i}]/div[2]/div[1]/div[2]/p[2]//text()') comment = ' '.join(comment).strip() result_df.loc[len(result_df), :] = [rank, hot, title, comment_time, user_name, forward_count, comment_count, like_count, comment] except Exception as e: print(e) continue print(detail_url, title) all_df = all_df.append(result_df, ignore_index=True)

      調(diào)度代碼,向 get_hot_list 中傳入熱搜頁的 url ,最后進(jìn)行保存即可。

      if __name__ == '__main__': url = 'https://s.weibo.com/top/summary?cate=realtimehot' get_hot_list(url) all_df.to_excel('工作文檔.xlsx', index=False)

      對于采集過程中對于一些可能發(fā)生報錯的地方,為保證程序的正常運(yùn)行,都通過異常處理給忽略掉了,整體影響不大!

      工作文檔.xlsx

      設(shè)置定時運(yùn)行

      至此,采集代碼已經(jīng)完成,想要實(shí)現(xiàn)每小時自動運(yùn)行代碼,可以使用任務(wù)計劃程序。

      在此之前需要我們簡單修改一下上面代碼中的Cookie與最后文件的保存路徑(建議使用絕對路徑),如果在 Jupyter notebook 中運(yùn)行的需要導(dǎo)出一個 .py 文件

      打開任務(wù)計劃程序,【創(chuàng)建任務(wù)】

      輸入名稱,名稱隨便起就好。

      選擇【觸發(fā)器】>>【新建】>>【設(shè)置觸發(fā)時間】

      選擇【操作】>>【新建】>>【選擇程序】

      最后確認(rèn)即可。到時間就會自動運(yùn)行,或者右鍵任務(wù)手動運(yùn)行。

      運(yùn)行效果

      這就是今天要分享的內(nèi)容,整體難度不大,希望大家能夠有所收獲,文章中的代碼拼接起來就可以運(yùn)行,如果有什么問題可以通過微信聯(lián)系我哦!

      版權(quán)聲明:本文內(nèi)容由網(wǎng)絡(luò)用戶投稿,版權(quán)歸原作者所有,本站不擁有其著作權(quán),亦不承擔(dān)相應(yīng)法律責(zé)任。如果您發(fā)現(xiàn)本站中有涉嫌抄襲或描述失實(shí)的內(nèi)容,請聯(lián)系我們jiasou666@gmail.com 處理,核實(shí)后本網(wǎng)站將在24小時內(nèi)刪除侵權(quán)內(nèi)容。

      版權(quán)聲明:本文內(nèi)容由網(wǎng)絡(luò)用戶投稿,版權(quán)歸原作者所有,本站不擁有其著作權(quán),亦不承擔(dān)相應(yīng)法律責(zé)任。如果您發(fā)現(xiàn)本站中有涉嫌抄襲或描述失實(shí)的內(nèi)容,請聯(lián)系我們jiasou666@gmail.com 處理,核實(shí)后本網(wǎng)站將在24小時內(nèi)刪除侵權(quán)內(nèi)容。

      上一篇:每個中小企業(yè)都應(yīng)該知道的5大IT術(shù)語
      下一篇:想知道所選的列里有沒有重復(fù)的項(xiàng)目名稱,要怎么操作?(怎樣選出一列中所有含有重復(fù)項(xiàng))
      相關(guān)文章
      亚洲综合最新无码专区| 亚洲一区二区三区影院| 亚洲最大的成网4438| 亚洲精品狼友在线播放| 中文字幕精品亚洲无线码一区| 亚洲精品无码AV中文字幕电影网站 | 无码乱人伦一区二区亚洲一 | 亚洲综合色一区二区三区| 亚洲偷自精品三十六区| 狠狠色香婷婷久久亚洲精品| 亚洲欧洲日韩极速播放| 亚洲精品无码你懂的| 色偷偷亚洲男人天堂| 在线视频亚洲一区| jlzzjlzz亚洲乱熟在线播放| 中文亚洲AV片在线观看不卡| 亚洲国产成人精品无码区在线观看| 亚洲AV无码码潮喷在线观看| 亚洲成色在线影院| 亚洲日韩乱码中文无码蜜桃臀 | 久久精品亚洲男人的天堂| 亚洲中文字幕久久精品无码APP| 亚洲精品成人网站在线观看| 亚洲AV无码成人精品区蜜桃| 久久精品国产亚洲AV无码娇色| 亚洲导航深夜福利| 亚洲kkk4444在线观看| 亚洲av永久无码精品网址| 亚洲A丁香五香天堂网| 国产午夜亚洲不卡| 亚洲av综合av一区| 久久亚洲熟女cc98cm| 亚洲人成网站18禁止久久影院| 在线亚洲午夜片AV大片| 日本亚洲中午字幕乱码| 中文亚洲AV片不卡在线观看| 亚洲成人免费在线| 亚洲一区中文字幕在线电影网| 亚洲Av无码国产一区二区| 亚洲最大av无码网址| 蜜芽亚洲av无码精品色午夜|