亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定

為什么只爬取了兩個url就結束了,而且output.html文件里沒有任何內容。求老師幫解答,謝謝啦!

craw?? 1 : https://baike.baidu.com/item/Python/407313
craw?? 2 : https://baike.baidu.com/item/Web/150564

Process finished with exit code 0

正在回答

2 回答

links=soup.find_all("a",?href=re.compile(r"/item/*"))

html_download 里這里要處理下

url?=?urllib.parse.quote(url,?safe='/:?=.')??#?解決地址中有中文的問題
resp?=?urllib.request.urlopen(url)


0 回復 有任何疑惑可以回復我~

parser文件中將

links?=?soup.find_all('a',?href=re.compile(r"/item/"))

這樣寫。

0 回復 有任何疑惑可以回復我~

舉報

0/150
提交
取消
Python開發簡單爬蟲
  • 參與學習       227596    人
  • 解答問題       1288    個

本教程帶您解開python爬蟲這門神奇技術的面紗

進入課程

為什么只爬取了兩個url就結束了,而且output.html文件里沒有任何內容。求老師幫解答,謝謝啦!

我要回答 關注問題
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號