亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

我正在使用 beautifulsoup 抓取數據,但我沒有獲取所有數據

我正在使用 beautifulsoup 抓取數據,但我沒有獲取所有數據

月關寶盒 2023-10-17 15:09:53
使用 python scraping 提取所有數據時出現問題from bs4 import BeautifulSoup  import requests  url = "https://www.worldometers.info/coronavirus/" req_data = requests.get(url) soup = BeautifulSoup(req_data.text, 'html.parser')  table = soup.find('table', attrs={'id': 'main_table_countries_today'})  for row in table.findAll('tr', attrs = {'class':['odd','even','total_row']}):      print(row.text)
查看完整描述

2 回答

?
哆啦的時光機

TA貢獻1779條經驗 獲得超6個贊

from bs4 import BeautifulSoup 

import requests , csv


def SaveAsCsv(list_of_rows):

    try:

        print('\nSaving CSV Result')

        with open('output.csv', 'a',  newline='', encoding='utf-8') as outfile:

            writer = csv.writer(outfile)

            writer.writerow(list_of_rows)

            print("rsults saved successully")

    except PermissionError:

        print("Please make sure output.csv is closed \n")


url = "https://www.worldometers.info/coronavirus/" 

req_data = requests.get(url)

soup = BeautifulSoup(req_data.text, 'html.parser') 

table = soup.find('table', attrs={'id': 'main_table_countries_today'})


header = [col_name.text.rstrip('\n').strip() for col_name in table.select('thead th')]

SaveAsCsv(header)



for row in table.select('tbody tr'):

    tds = [td.get_text().rstrip('\n').strip() for td in  row.select('td')]

    SaveAsCsv(tds)

    # print(row.text.rstrip('\n').strip())

https://img1.sycdn.imooc.com/652e33c80001b16015140881.jpg

查看完整回答
反對 回復 2023-10-17
?
嚕嚕噠

TA貢獻1784條經驗 獲得超7個贊

import requests

import pandas as pd



r = requests.get("https://www.worldometers.info/coronavirus/")

df = pd.read_html(r.content)


print(df)


查看完整回答
反對 回復 2023-10-17
  • 2 回答
  • 0 關注
  • 126 瀏覽

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號