亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定

Python開發簡單爬蟲

螞蟻帥帥 全棧工程師
難度初級
時長 1小時14分
學習人數
綜合評分9.67
646人評價 查看評價
9.9 內容實用
9.6 簡潔易懂
9.5 邏輯清晰

最新回答 / 陌路
單詞拼錯了urllibs.urlopen('http://www.baidu.com')應為urllib2.urlopen

最贊回答 / 慕田峪0665080
<...code...>基于python3的,跟視頻的版本不一樣

最新回答 / Hewitt_Q
可以把try里面的語句拿到外面來運行,再慢慢糾錯

最新回答 / 慕斯8352703
改成
from?urllib.parse?import?urljoin
new_full_url?=?urljoin(page_url,?new_url)

最新回答 / 慕田峪0665080
你用的python版本與視頻中的版本不一樣 python3 print是要加括號的,而且,沒有urllib2這個庫

最新回答 / 一朵阿拉斯加
補充:直接輸出craw faild的原因是'str' object is not callable

最新回答 / 慕前端1033670
Process finished with exit code 0 程序運行成功的意思,將你所要顯示出來的東西用print輸出

最贊回答 / 慕UI7096351
url?=?"https://wwww.baidu.com/"
response?=?request.urlopen(url)
print(response.getcode())
print(response.read())
應該用urlopen方法
request.Request是構建一個完整的請求:
????req?=?urllib.request.Request(url)
????response?...

最新回答 / qq_慕先生9533666
因為在add_new_url里做了一個過濾的判斷,判斷是為一個全新的url
課程須知
本課程是Python語言開發的高級課程 1、Python編程語法; 2、HTML語言基礎知識; 3、正則表達式基礎知識;
老師告訴你能學到什么?
1、爬蟲技術的含義和存在價值 2、爬蟲技術架構 3、組成爬蟲的關鍵模塊:URL管理器、HTML下載器和HTML解析器 4、實戰抓取百度百科1000個詞條頁面數據的抓取策略設定、實戰代碼編寫、爬蟲實例運行 5、一套極簡的可擴展爬蟲代碼,修改本代碼,你就能抓取任何互聯網網頁!

微信掃碼,參與3人拼團

微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號

友情提示:

您好,此課程屬于遷移課程,您已購買該課程,無需重復購買,感謝您對慕課網的支持!

本次提問將花費2個積分

你的積分不足,無法發表

為什么扣積分?

本次提問將花費2個積分

繼續發表請點擊 "確定"

為什么扣積分?

舉報

0/150
提交
取消