亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

如果需要太長時間,請跳過 for 循環內的 selenium Webdriver.get() 調用

如果需要太長時間,請跳過 for 循環內的 selenium Webdriver.get() 調用

HUWWW 2024-01-04 15:38:38
嘿伙計們,我無法理解如何向 for in range 循環添加異?!,F在,我正在從 Excel 工作表中提取 URL,并在整個頁面中移動時抓取信息,直到到達第 200 頁。問題是,并非所有 URL 的頁面都達到 200,因此需要很長時間才能循環結束,并且程序可以使用另一個 URL 繼續。有沒有辦法在這里的代碼中實現異常?from selenium import webdriverimport pandas as pdimport timedriver = webdriver.Chrome("C:/Users/Acer/Desktop/chromedriver.exe")companies = []df = pd.read_excel('C:/Users/Acer/Desktop/urls.xlsx')for index, row in df.iterrows():    base_url = (row['urls'])        for i in range(1,201,1):                url = "{base_url}?curpage={i}".format(base_url=base_url, i=i)        driver.get(url)        time.sleep(2)                name = driver.find_elements_by_xpath('//a/div/div/p')            for names in name:            print(names.text, url)            companies.append([names.text, url])
查看完整描述

1 回答

?
紅糖糍粑

TA貢獻1815條經驗 獲得超6個贊

您可以在 Webdriver 上設置最大超時Timeout,然后監視循環中的異常:

from selenium.common.exceptions import TimeoutException


MAX_TIMEOUT_SECONDS = 5


driver = webdriver.Chrome("C:/Users/Acer/Desktop/chromedriver.exe")

driver.set_page_load_timeout(MAX_TIMEOUT_SECONDS)


for i in range(1, 201):

? ? try:

? ? ? ? url = "{base_url}?curpage={i}".format(base_url=base_url, i=i)

? ? ? ? driver.get(url)

? ? except TimeoutException:

? ? ? ? # skip this if it takes more than 5 seconds

? ? ? ? continue

? ? ... # process the scraped URL as usual

如果發生超時,則通過 跳過當前迭代continue。


查看完整回答
反對 回復 2024-01-04
  • 1 回答
  • 0 關注
  • 143 瀏覽
慕課專欄
更多

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號