亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定

爬不到1000個。。。

有沒有人跟我一樣運行不到最后就卡住的??這是什么鬼。。。每次爬個幾百個就停住了。。

正在回答

7 回答

def _get_new_urls(self, curr_url, soup):
? ?new_urls = set()
? ?links = soup.find_all('a', href=re.compile(r"/item/*"))

正則表達式的內容改下就行,網頁格式變了

0 回復 有任何疑惑可以回復我~

我就爬了兩個~~~


0 回復 有任何疑惑可以回復我~

我第一次爬了1000條,但是再次運行的時候爬了兩條就結束了

0 回復 有任何疑惑可以回復我~

可以試試修改一下collect 函數,讓它每次收集數據的時候都寫入文件,而不是像老師一樣最后一次性寫入。

0 回復 有任何疑惑可以回復我~
#1

gavin_10

你那個爬出來了嗎,我的response一直返回200
2017-03-03 回復 有任何疑惑可以回復我~

來個多線程

0 回復 有任何疑惑可以回復我~


嗯嗯,,有可能啊,感覺程序應該沒什么問題,而且每次卡死的時候爬取的數目也不同,最多一次也能爬取900多個

0 回復 有任何疑惑可以回復我~

我感覺是內存的原因吧,數據都在內存保存,最后寫入文件的

0 回復 有任何疑惑可以回復我~

舉報

0/150
提交
取消
Python開發簡單爬蟲
  • 參與學習       227596    人
  • 解答問題       1288    個

本教程帶您解開python爬蟲這門神奇技術的面紗

進入課程

爬不到1000個。。。

我要回答 關注問題
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號