亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定

spider_main.py中的from baike_spider import url_manager問題

baike_spider是在工程下面創建的package,里面是空的,那from baike_spider import url_manager,html_downloader,html_parser,html_outputer這句代碼,又怎么從baike_spider模塊中引入(import)? url_manager呢?
我按照視頻里面的代碼打出來,運行后紙爬取了講個網址就結束了。我懷疑是不是因為(package)baike_spider為空引起的,求大神指導

正在回答

2 回答

第一:baike_spider是你創建的包,你所說的url_manager肯定是放在包中的代碼,是可以import進去了。

第二:只爬取一個網址就結束應該是html_parser中的代碼有問題,比如課程中的匹配策略與現在的百度Python詞條不匹配,需要改成href = re.compile(r"/item/.*") ? 再或者find_all ?不要丟了下劃線,我就沒注意到下劃線,所以只輸出了1條記錄就craw faild了。

0 回復 有任何疑惑可以回復我~
#1

蘭陵蕭蕭笙 提問者

晚上試試,我還以為是我代碼哪里打錯了,多謝啦
2017-05-18 回復 有任何疑惑可以回復我~
#2

Ramon_Lee 回復 蘭陵蕭蕭笙 提問者

我的天,難道我自己動手做的第一個爬蟲就運行不起來啊,意思就是現在應該用http://baike.baidu.com/view/21087.htm,解析器里就應該是href = re.compile(r"/item/.*"),才可以? 不過我怎么運行都是 craw 1 : None craw failed 崩潰了。。。
2017-05-25 回復 有任何疑惑可以回復我~
#3

蘭陵蕭蕭笙 提問者 回復 Ramon_Lee

那可能是你其他地方有些小錯誤,我就是一個字母寫錯了,找了幾天才搞定。我有我手打的源碼,你要不要?
2017-05-25 回復 有任何疑惑可以回復我~
#4

蘭陵蕭蕭笙 提問者 回復 Ramon_Lee

那可能是你其他地方有些小錯誤,我就是一個字母寫錯了,找了幾天才搞定。我有我手打的源碼,你要不要?
2017-05-25 回復 有任何疑惑可以回復我~
#5

Ramon_Lee 回復 蘭陵蕭蕭笙 提問者

while self.urls.has_new_url(): try: new_url = self.urls.get_new_url() print 'craw %d : %s' % (count, new_url) html_cont = self.downloader.download(new_url) new_urls, new_data = self.parser.parse(new_url, html_cont) 中的new_url = self.urls.get_new_url(),方法沒有寫全。。。。不認真
2017-05-25 回復 有任何疑惑可以回復我~
#6

蘭陵蕭蕭笙 提問者 回復 Ramon_Lee

給我個郵箱,我把我的代碼發給你看看,你檢查一下
2017-05-25 回復 有任何疑惑可以回復我~
#7

蘭陵蕭蕭笙 提問者 回復 Ramon_Lee

加不了,有提示問題
2017-05-25 回復 有任何疑惑可以回復我~
#8

蘭陵蕭蕭笙 提問者 回復 Ramon_Lee

917690192
2017-05-25 回復 有任何疑惑可以回復我~
查看10條回復

那為什么我用的pycharm 里baike_spider中沒有url_manager,html_downloader,html_parser,html_outputer

url_manager,html_downloader,html_parser,html_outputer都是錯誤Imort Error

0 回復 有任何疑惑可以回復我~

舉報

0/150
提交
取消
Python開發簡單爬蟲
  • 參與學習       227596    人
  • 解答問題       1288    個

本教程帶您解開python爬蟲這門神奇技術的面紗

進入課程

spider_main.py中的from baike_spider import url_manager問題

我要回答 關注問題
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號