亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定

無任何結果

根據視頻代碼,把幾個模塊的代碼都寫好了,可是為什么運行主程序沒有任何結果,https://img1.sycdn.imooc.com//5b606ac90001839e13660768.jpg

正在回答

2 回答

from bs4 import BeautifulSoup

import re

import urlparse

class HtmlParser(object): ??

? ? def _get_new_urls(self, page_url, soup):

? ? ? ? new_urls=set()

? ? ? ? links=soup.find_all('a',href=re.compile(r"/view/\d+\.html"))

? ? ? ? for link in links:

? ? ? ? ? ? new_url=link['href']

? ? ? ? ? ? new_full_url=urlparse.urljoin(page_url,new_url)

? ? ? ? ? ? new_urls.add(new_full_url)

? ? ? ? return new_urls

? ? # class="lemmaWgt-lemmaTitle-title"

? ? def _get_new_data(self, page_url, soup):

? ? ? ? res_data={}

? ? ? ? res_data['url']=page_url

? ? ? ??

? ? ? ? title_node=soup.find('dd',class_="lemmaWgt-lemmaTitle-title").find("h1")

? ? ? ? res_data['title']=title_node.get_text()

? ? ? ??

? ? ? ? summary_node=soup.find('div',class_='lemma-summary')

? ? ? ? res_data['summary']=summary_node.get_text()

? ? ? ? return res_data

? ? def parse(self,page_url,html_cont):

? ? ? ? if page_url is None or html_cont is None:

? ? ? ? ? ? return

? ? ? ? soup= BeautifulSoup(html_cont,'html.parser',from_encoding= 'utf-8')

? ? ? ? new_urls=self._get_new_urls(page_url,soup)

? ? ? ? new_data=self._get_new_data(page_url,soup)

? ? ? ? return new_urls,new_data?

? ??


0 回復 有任何疑惑可以回復我~

百度的url 不一樣,python頁是這個:https://baike.baidu.com/item/Python/407313

里面的鏈接也有變化

0 回復 有任何疑惑可以回復我~
#1

qq_passerby_13 提問者

if __name__=="__main__": root_url="https://baike.baidu.com/item/Python/407313" obj_spider=spiderMain() obj_spider.craw=(root_url) 這是我的代碼,url就是你這個
2018-08-12 回復 有任何疑惑可以回復我~
#2

慕粉1747008777 回復 qq_passerby_13 提問者

解析器里的代碼呢?
2018-08-15 回復 有任何疑惑可以回復我~
#3

qq_passerby_13 提問者 回復 慕粉1747008777

看我回復
2018-08-16 回復 有任何疑惑可以回復我~

舉報

0/150
提交
取消
Python開發簡單爬蟲
  • 參與學習       227596    人
  • 解答問題       1288    個

本教程帶您解開python爬蟲這門神奇技術的面紗

進入課程

無任何結果

我要回答 關注問題
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號