亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定

Python開發簡單爬蟲

螞蟻帥帥 全棧工程師
難度初級
時長 1小時14分
學習人數
綜合評分9.67
646人評價 查看評價
9.9 內容實用
9.6 簡潔易懂
9.5 邏輯清晰

最贊回答 / hzCN
拼寫錯誤,是href不是herf報關鍵字錯

最贊回答 / 慕仔9448116
if?__name__?==?"_main_":
if?__name__?==?"__main__":
不知道是不是這個問題,main兩邊是兩個短下劃線,寫出一個了

最贊回答 / 慕勒215309
links未定義你的上一行代碼 link = soup.find_all('a')漏寫了一個s啊,大佬
這個軟件是ecilipse 需要自己進行配置PYDEV,還有Django ,費了老大的勁了,結果安裝完了 講解的卻是PY2.X,真是斃了狗了

最新回答 / 沿途看景
通過下載初始網頁數據,利用分析器得到此網頁上與初始網頁鏈接相似的其它鏈接,再通過下載這些鏈接指向的網頁數據分析得到更多的鏈接,如此遞推。
fout.write("<html>")之后加入以下代碼解決亂碼
fout.write("<head>")
fout.write('<meta charset="utf-8">')
fout.write("</head>")

最新回答 / 涼薄18
f=open("output.html",'w',encoding='utf-8')

最新回答 / 慢的烏龜
對的,set是無序的,且不重復。

最贊回答 / 慕桂英2348522
1.?summary_node?=?soup.find('dev',class_="lemma-summary")應該是:summary_node?=?soup.find('div',class_="lemma-summary")

2.soup?=?BeautifulSoup(html_cont,'html_parser')
我的解析器那里有問題,soup = BeautifulSoup(html_cont,'html.parser'),soup無法返回,也不報錯
課程須知
本課程是Python語言開發的高級課程 1、Python編程語法; 2、HTML語言基礎知識; 3、正則表達式基礎知識;
老師告訴你能學到什么?
1、爬蟲技術的含義和存在價值 2、爬蟲技術架構 3、組成爬蟲的關鍵模塊:URL管理器、HTML下載器和HTML解析器 4、實戰抓取百度百科1000個詞條頁面數據的抓取策略設定、實戰代碼編寫、爬蟲實例運行 5、一套極簡的可擴展爬蟲代碼,修改本代碼,你就能抓取任何互聯網網頁!

微信掃碼,參與3人拼團

微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號

友情提示:

您好,此課程屬于遷移課程,您已購買該課程,無需重復購買,感謝您對慕課網的支持!

本次提問將花費2個積分

你的積分不足,無法發表

為什么扣積分?

本次提問將花費2個積分

繼續發表請點擊 "確定"

為什么扣積分?

舉報

0/150
提交
取消