亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

如何從特定網站抓取數據

如何從特定網站抓取數據

拉莫斯之舞 2022-10-18 17:09:41
我正在嘗試從網站上抓取數據以進行練習分析。我在特定網站上遇到了一些問題。該網站是關于西雅圖地區的警方報告的。我已經閱讀了很多文章,但無法得到答案。網址是:https ://data.seattle.gov/Public-Safety/real-time-911/nvqc-w7eg我知道我應該使用漂亮的湯并嘗試找到一個關鍵字進行搜索,然后將類型轉換為文本。但是,我一直沒有。import requestsURL = 'https://data.seattle.gov/Public-Safety/real-time-911/nvqc-w7eg'page = requests.get(URL) from bs4 import BeautifulSoupsoup = BeautifulSoup(page.content)我的目標是將表格轉換為.csv文件。有人可以幫我嗎?
查看完整描述

3 回答

?
慕尼黑5688855

TA貢獻1848條經驗 獲得超2個贊

創建 BeautifulSoup 對象:

soup = BeautifulSoup(page.text, "lxml")

或者,

soup = BeautifulSoup(page.text, "html.parser")

或者,

soup = BeautifulSoup(page.content, 'html.parser')

我認為,您應該使用它,lxml因為它具有良好的性能。


查看完整回答
反對 回復 2022-10-18
?
江戶川亂折騰

TA貢獻1851條經驗 獲得超5個贊

嘗試

soup = BeautifulSoup(page.text, "html.parser")


查看完整回答
反對 回復 2022-10-18
?
喵喵時光機

TA貢獻1846條經驗 獲得超7個贊

lxml使用或解析 HTML html.parser。lxml有些比其他的有優勢,包括非??斓氖聦?。


URL = 'https://data.seattle.gov/Public-Safety/real-time-911/nvqc-w7eg'

page = requests.get(URL) 

from bs4 import BeautifulSoup

soup = BeautifulSoup(page.text, "html.parser") #or lxml, htmlparser is just example

與其直接把它放在沒有字符串的地方,不如把它和字符串一起放進去,這樣 Python 就知道你正在處理解析器。


查看完整回答
反對 回復 2022-10-18
  • 3 回答
  • 0 關注
  • 146 瀏覽
慕課專欄
更多

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號