亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

無法從網頁中獲取不同供應商的名稱

無法從網頁中獲取不同供應商的名稱

慕姐8265434 2022-01-18 17:25:20
我在 python 中創建了一個腳本,使用發布請求從網頁中獲取不同供應商的名稱,但不幸的是,我遇到了這個錯誤AttributeError: 'NoneType' object has no attribute 'text',而我發現我以正確的方式做事。網站鏈接要填充內容,需要像在圖像中看到的那樣單擊搜索按鈕。到目前為止我已經嘗試過:import requestsfrom bs4 import BeautifulSoupurl = "https://www.gebiz.gov.sg/ptn/supplier/directory/index.xhtml"r = requests.get(url)soup = BeautifulSoup(r.text,"lxml")payload = {    'contentForm': 'contentForm',    'contentForm:j_idt225_listButton2_HIDDEN-INPUT': '',    'contentForm:j_idt161_inputText': '',    'contentForm:j_idt164_SEARCH': '',    'contentForm:j_idt167_selectManyMenu_SEARCH-INPUT': '',    'contentForm:j_idt167_selectManyMenu-HIDDEN-INPUT': '',    'contentForm:j_idt167_selectManyMenu-HIDDEN-ACTION-INPUT': '',    'contentForm:search': 'Search',    'contentForm:j_idt185_select': 'SUPPLIER_NAME',    'javax.faces.ViewState': soup.select_one('[id="javax.faces.ViewState"]')['value']}res = requests.post(url,data=payload,headers={    'Content-Type': 'application/x-www-form-urlencoded',    'User-Agent': 'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36'    })sauce = BeautifulSoup(res.text,"lxml")item = sauce.select_one(".form2_ROW").textprint(item)只有這部分也可以: 8121 results found.完整追溯:Traceback (most recent call last):  File "C:\Users\WCS\AppData\Local\Programs\Python\Python37-32\general_demo.py", line 27, in <module>    item = sauce.select_one(".form2_ROW").textAttributeError: 'NoneType' object has no attribute 'text'
查看完整描述

1 回答

?
墨色風雨

TA貢獻1853條經驗 獲得超6個贊

您需要找到獲取 cookie 的方法。以下內容目前適用于我的多個請求。


import requests

from bs4 import BeautifulSoup


url = "https://www.gebiz.gov.sg/ptn/supplier/directory/index.xhtml"


headers = {

    'Content-Type': 'application/x-www-form-urlencoded',

    'User-Agent': 'Mozilla/5.0',

    'Referer' : 'https://www.gebiz.gov.sg/ptn/supplier/directory/index.xhtml',

    'Accept' : 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8',

    'Accept-Encoding' : 'gzip, deflate, br',

    'Accept-Language' : 'en-US,en;q=0.9',

    'Cache-Control' : 'max-age=0',

    'Connection' : 'keep-alive',

    'Cookie' : '__cfduid=d3fe47b7a0a7f3ef307c266817231b5881555951761; wlsessionid=pFpF87sa9OCxQhUzwQ3lXcKzo04j45DP3lIVYylizkFMuIbGi6Ka!1395223647; BIGipServerPTN2_PRD_Pool=52519072.47873.0000'

}


with requests.Session() as s:

    r = s.get(url, headers= headers)

    soup = BeautifulSoup(r.text,"lxml")

    payload = {

        'contentForm': 'contentForm',

        'contentForm:search': 'Search',

        'contentForm:j_idt185_select': 'SUPPLIER_NAME',

        'javax.faces.ViewState': soup.select_one('[id="javax.faces.ViewState"]')['value']

    }

    res = s.post(url,data=payload,headers= headers)

    sauce = BeautifulSoup(res.text,"lxml")

    item = sauce.select_one(".formOutputText_HIDDEN-LABEL.outputText_TITLE-BLACK").text

    print(item)


查看完整回答
反對 回復 2022-01-18
  • 1 回答
  • 0 關注
  • 215 瀏覽
慕課專欄
更多

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號