亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定

盤點一個Python網絡爬蟲+正則表達式處理案例

大家好,我是Python进阶者。

一、前言

前几天在Python白银交流群【鑫】问了一个Python网络爬虫的问题,提问截图如下:

下面是他的代码:

import requests
import re
url = "https://movie.douban.com/top250"
headers = {
     "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/105.0.0.0 Safari/537.36"
}
resp = requests.get(url, headers=headers)
resp.encoding = "utf-8"
pageSource = resp.text
print(pageSource)                 #re.S可以让正则的。匹配换行符
obj = re.compile(r'<div class="item">.*?<span class="title">(?P<name>.*?)</sp'
                 r'an>.*? <p class="">.*?导演:(?P<dao>.*?) <br>'
                 r'(?P<year>.*?) ', re.S)
result = obj.finditer(pageSource)
for item in result:
     print(item.group("name"))
     print(item.group("dao"))
     print(item.group("year"))

二、实现过程

这里【瑜亮老师】指出问题,如下所示:

事实上还是那个正则表达式写的有问题。

跟着视频来敲,有时候视频太老了,或者对应的网页结构改版了,导致原有的代码并不能够适配,导致出错。

修改之后可以得到正确的结果了。

三、总结

大家好,我是Python进阶者。这篇文章主要盘点了一个Python网络爬虫+正则表达式处理的问题,文中针对该问题,给出了具体的解析和代码实现,帮助粉丝顺利解决了问题。

最后感谢粉丝【鑫】提问,感谢【瑜亮老师】给出的思路和代码解析,感谢【dcpeng】、【ᯤ⁶ᴳ】等人参与学习交流。

點擊查看更多內容
TA 點贊

若覺得本文不錯,就分享一下吧!

評論

作者其他優質文章

正在加載中
  • 推薦
  • 評論
  • 收藏
  • 共同學習,寫下你的評論
感謝您的支持,我會繼續努力的~
掃碼打賞,你說多少就多少
贊賞金額會直接到老師賬戶
支付方式
打開微信掃一掃,即可進行掃碼打賞哦
今天注冊有機會得

100積分直接送

付費專欄免費學

大額優惠券免費領

立即參與 放棄機會
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號

舉報

0/150
提交
取消