亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

只有最后一頁的輸出被寫入 CSV

只有最后一頁的輸出被寫入 CSV

阿波羅的戰車 2023-02-22 17:16:59
我試圖從頁面中提取鏈接,但只提取最后一頁的鏈接。當我在頁面中移動時,如何提取所有內容?for var in range(1, 1001):    page = driver.find_element_by_xpath('//a[contains(@href,"pageNbre=%r")]' % var)    driver.execute_script("arguments[0].click();", page)    print('Navigating to page %r ' % var)    time.sleep(3)elem = driver.find_elements_by_xpath('//*[contains(@href, "/c/")]')url_list = []for link in elem:    print(link.get_attribute('href'))    url_list.append(link.get_attribute('href'))df = pd.DataFrame(url_list,columns=['url'])df.to_csv('C://users//admin//desktop//urls.csv', index=False)
查看完整描述

1 回答

?
慕容3067478

TA貢獻1773條經驗 獲得超3個贊

我不明白它應該如何在一個層次上縮進。


喬納,看看它應該如何:


for var in range(1, 1001):

    page = driver.find_element_by_xpath('//a[contains(@href,"pageNbre=%r")]' % var)

    driver.execute_script("arguments[0].click();", page)

    print('Navigating to page %r ' % var)

    time.sleep(3)


    elem = driver.find_elements_by_xpath('//*[contains(@href, "/c/")]')

    url_list = []

    for link in elem:

        print(link.get_attribute('href'))

        url_list.append(link.get_attribute('href'))


df = pd.DataFrame(url_list,columns=['url'])

df.to_csv('C://users//admin//desktop//urls.csv', index=False)


查看完整回答
反對 回復 2023-02-22
  • 1 回答
  • 0 關注
  • 110 瀏覽
慕課專欄
更多

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號