亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定

Python開發簡單爬蟲

螞蟻帥帥 全棧工程師
難度初級
時長 1小時14分
學習人數
綜合評分9.67
646人評價 查看評價
9.9 內容實用
9.6 簡潔易懂
9.5 邏輯清晰

已采納回答 / 這個名字七個字
我的html_downloader代碼頭部加的是下面這個,沒報錯import urllib.request

已采納回答 / OMG快到碗里來
大兄弟 你的源碼能讓我看看嗎 我的出不來結果 先謝謝你了

最新回答 / 豬豬的笨笨
感覺你是最近才學的吧。如果是,建議你學習一下基礎,然后一個一個模塊的學習使用。最后再一次使用多個模塊。而且,這個視頻的python和模塊有點老,你要小心有很多坑,我就是被坑了很多次?。?!

已采納回答 / YYIN
如果你用的是python3的話,要把import urllib2寫成import urllib.request

已采納回答 / qq_Chandler_34038455
而且你最后link.get_text()是點,不是逗號,望采納

已采納回答 / LUXIN66
python3 缺省的編碼是unicode, 再在from_encoding設置為utf8, 會被忽視掉,代碼是從python2轉來的,去掉就可以了

已采納回答 / 慕粉3962690
www.baidu.com? ?只是首頁 你要用他干什么呢 比如 你要用它搜索 python 他的鏈接請求就會變成 www.baidu.com?wd=python? (這只是給你簡單解釋下 真實的鏈接比較復雜 做了很多處理) 自己搜下 看下地址欄就知道了,簡單來說 就根據不同的請求參數 可以讓我抓取不同的頁面和內容。ps:去了解HTTP協議的get請求和post請求。

已采納回答 / 千里馬123
前面是要解析的內容,后面的'html.parser'是指定解析器的意思。因為beautiful有不止一種解析器可以去解析內容。

已采納回答 / 重明子
link是一個字典,link["herf"]就是找到“herf”的鍵值

最新回答 / qq_江仔_0
def _get_new_urls(self, curr_url, soup): ? ?new_urls = set() ? ?links = soup.find_all('a', href=re.compile(r"/item/*"))正則表達式的內容改下就行,網頁格式變了

已采納回答 / 龍蝦_V
if __name__=="__main__"
課程須知
本課程是Python語言開發的高級課程 1、Python編程語法; 2、HTML語言基礎知識; 3、正則表達式基礎知識;
老師告訴你能學到什么?
1、爬蟲技術的含義和存在價值 2、爬蟲技術架構 3、組成爬蟲的關鍵模塊:URL管理器、HTML下載器和HTML解析器 4、實戰抓取百度百科1000個詞條頁面數據的抓取策略設定、實戰代碼編寫、爬蟲實例運行 5、一套極簡的可擴展爬蟲代碼,修改本代碼,你就能抓取任何互聯網網頁!

微信掃碼,參與3人拼團

微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號

友情提示:

您好,此課程屬于遷移課程,您已購買該課程,無需重復購買,感謝您對慕課網的支持!

本次提問將花費2個積分

你的積分不足,無法發表

為什么扣積分?

本次提問將花費2個積分

繼續發表請點擊 "確定"

為什么扣積分?

舉報

0/150
提交
取消