亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定

編譯沒有錯誤,運行只能爬取root url,接著就顯示craw fialed是什么原因?感覺是parser那里出了問題,大家幫忙看看,就是爬取百科里的python

from bs4 import BeautifulSoup

import re

import urlparse

class HtmlParser(object):

? ? def _get_new_urls(self, page_url, soup):

? ? ? ? new_urls=set()

? ? ? ? links=soup.find_all('a', href=re.compile(r"/item/"))

? ? ? ? for link in links:

? ? ? ? ? ? new_url=link['href']

? ? ? ? ? ? new_full_url=urlparse.urljoin(page_url,new_url)

? ? ? ? ? ? new_urls.add(new_full_url)

? ? ? ? ? ??

? ? ? ? return new_urls??

? ? def _get_new_data(self, page_url, soup):

? ? ? ? res_data={}

? ? ? ? res_data['url']=page_url

? ? ? ? #<dd class="lemmaWgt-lemmaTitle-title"> <h1>Python</h1>

? ? ? ? title_node=soup.find('dd',class_="lemmaWgt-lemmaTitle-title").find("h1")

? ? ? ? res_data['title']=title_node.get_text()

? ? ? ? #<div class="lemma-summary" label-module="lemmaSummary">

? ? ? ? summary_node=soup.find('div',class_="lemma-summary")

? ? ? ? res_data['summary']=summary_node.get_text()

? ? ? ??

? ? ? ? return res_data

? ? def parse(self,page_url,html_cont):

? ? ? ? if page_url is None or html_cont is None:

? ? ? ? ? ? return

? ? ? ? soup=BeautifulSoup(html_cont,'html.parser',from_encoding='utf-8')

? ? ? ? new_urls=self._get_new_urls(page_url,soup)

? ? ? ? new_data=self._get_new_data(page_url,soup)

? ? ? ? return new_urls,new_data

? ??


正在回答

1 回答

問題已解決,建議有類似問題的同學,去掉try模塊,看一下有沒有報錯,根據錯誤改一下,就好了

ps.我是getcode中間多加了個下劃線,導致downloader不能正常運行lol

1 回復 有任何疑惑可以回復我~

舉報

0/150
提交
取消
Python開發簡單爬蟲
  • 參與學習       227596    人
  • 解答問題       1288    個

本教程帶您解開python爬蟲這門神奇技術的面紗

進入課程

編譯沒有錯誤,運行只能爬取root url,接著就顯示craw fialed是什么原因?感覺是parser那里出了問題,大家幫忙看看,就是爬取百科里的python

我要回答 關注問題
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號