亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

BeautifulSoup4 抓取不能超出網站的第一頁

BeautifulSoup4 抓取不能超出網站的第一頁

斯蒂芬大帝 2021-06-04 14:25:11
我試圖從本網站的第一頁爬到第 14 頁:https : //cross-currents.berkeley.edu/archives?author=&title=&type=All&issue=All?ion=All 這是我的代碼:import requests as rfrom bs4 import BeautifulSoup as soupimport pandas #make a list of all web pages' urlswebpages=[]for i in range(15):    root_url = 'https://cross-currents.berkeley.edu/archives?author=&title=&type=All&issue=All&region=All&page='+ str(i)    webpages.append(root_url)    print(webpages)#start looping through all pagesfor item in webpages:      headers = {'User-Agent': 'Mozilla/5.0'}    data = r.get(item, headers=headers)    page_soup = soup(data.text, 'html.parser')#find targeted info and put them into a list to be exported to a csv file via pandas    title_list = [title.text for title in page_soup.find_all('div', {'class':'field field-name-node-title'})]    title = [el.replace('\n', '') for el in title_list]#export to csv file via pandas    dataset = {'Title': title}    df = pandas.DataFrame(dataset)    df.index.name = 'ArticleID'    df.to_csv('example31.csv',encoding="utf-8")輸出 csv 文件僅包含最后一頁的目標信息。當我打印“網頁”時,它顯示所有頁面的網址都已正確放入列表中。我究竟做錯了什么?先感謝您!
查看完整描述

2 回答

  • 2 回答
  • 0 關注
  • 146 瀏覽
慕課專欄
更多

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號