亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定

只抓取一行 第二行就輸出failed 跪求解決方法

spider_main代碼

#?-*-?coding:?utf-8?-*-
import?url_manager,html_downloader,html_parser,html_outputer
class?SpiderMain(object):
????def?__init__(self):
????????self.urls?=?url_manager.UrlManager()
????????self.downloader?=?html_downloader.HtmlDownloader()
????????self.parser?=?html_parser.HtmlParser()
????????self.outputer=html_outputer.HtmlOutputer()


????def?craw(self,root_url):
????????count?=?1;
????????self.urls.add_new_url(root_url)
????????while?self.urls.has_new_url():
????????????try:
????????????????new_url?=?self.urls.get_new_url()
????????????????print?'craw?%d?:?%s'%(count,?new_url)
????????????????html_cont?=?self.downloader.download(new_url)
????????????????new_urls,new_data?=?self.parser.parse(new_url,html_cont)
????????????????self.urls.add_new_urls(new_urls)
????????????????self.outputer.collect_data(new_data)

????????????????if?count?==?1000:
????????????????????break
????????????????count?=?count?+?1
????????????except:
????????????????print?'craw?failed'
????????self.outputer.output_html()


if?__name__=='__main__':
????root_url?=?"http://baike.baidu.com/view/21087.html"
????obj_spider?=?SpiderMain()
????obj_spider.craw(root_url)

https://img1.sycdn.imooc.com//5b3c2fd90001b0bc05250163.jpg

正在回答

2 回答

我的也是這個問題response =request.urlopen(url)爬取到的只有頭標簽的內容還不完整。。

0 回復 有任何疑惑可以回復我~

這個路徑訪問失敗吧?我看現在百科路徑不是這個了,所以沒有新的待爬取路徑產生。。你改成現在的試試,包括爬取目標的格式也變了

0 回復 有任何疑惑可以回復我~

舉報

0/150
提交
取消
Python開發簡單爬蟲
  • 參與學習       227596    人
  • 解答問題       1288    個

本教程帶您解開python爬蟲這門神奇技術的面紗

進入課程

只抓取一行 第二行就輸出failed 跪求解決方法

我要回答 關注問題
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號