亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定

soup 對象為none的問題

craw 350 : https://baike.baidu.com/item/%E6%A2%85%E7%88%B1%E8%8A%B3/983014

craw 351 : https://baike.baidu.com/item/%E5%93%88%E5%A8%81%C2%B7%E5%87%AF%E7%89%B9%E5%B0%94/4528376

Traceback (most recent call last):

? File "c:/Users/VULCAN/Desktop/文件/爬蟲學習.py", line 127, in <module>

? ? obj_spider.craw(root_url)

? File "c:/Users/VULCAN/Desktop/文件/爬蟲學習.py", line 114, in craw

? ? new_urls, new_data = self.parser.parse(new_url, html_cont)

? File "c:/Users/VULCAN/Desktop/文件/爬蟲學習.py", line 69, in parse

? ? new_data = self._get_new_data(page_url, soup)

? File "c:/Users/VULCAN/Desktop/文件/爬蟲學習.py", line 57, in _get_new_data

? ? title_node = soup.find('dd', class_="lemmaWgt-lemmaTitle-title").find("h1")

AttributeError: 'NoneType' object has no attribute 'find'


爬取到一半后報錯,相關代碼如下

def?parse(self,?page_url,?html_cont):
????if?page_url?is?None?or?html_cont?is?None:
????????return
????soup?=?BeautifulSoup(html_cont,?'html.parser',?from_encoding='utf-8')
????new_urls?=?self._get_new_urls(page_url,?soup)
????new_data?=?self._get_new_data(page_url,?soup)
????return?new_urls,?new_data

求大神解答??!


正在回答

1 回答

已解決,自己看錯了??

1 回復 有任何疑惑可以回復我~

舉報

0/150
提交
取消
Python開發簡單爬蟲
  • 參與學習       227596    人
  • 解答問題       1288    個

本教程帶您解開python爬蟲這門神奇技術的面紗

進入課程

soup 對象為none的問題

我要回答 關注問題
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號