亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

scrapy怎么讓隊列中多個請求共用一個代理ip?

scrapy怎么讓隊列中多個請求共用一個代理ip?

慕碼人2483693 2019-01-24 10:50:27
問題描述共有6000個url, 12點的時候啟動celery產生任務和隊列派給兩個服務器去爬, 每次處理100個url, 我用中間件拿到10個代理ip攜帶上去請求, 100個處理完后, 繼續處理隊列中的下一組100個url, 但是為什么不讀取新的ip呢? 這樣6000個url跑完, 永遠用的還是第一次那10個ip, 目前我是在process_request函數中每個請求都去讀取一個有ip的文本, 而文本定時更換保證只有10個ip, 所以100個請求也只會隨機從10個里拿, 但是后邊處理隊列中其他一堆請求就再也不讀取新ip了, 怎么解決呢?讀取文本是為了節省ip, 因為我會控制文本只有10個ip,定時更換, 如果不讀取文本,而是直接調取ip接口, 那就需要特別多的ip, 一輪6000個url就需要最少6000個ip, 現在一輪只想用300個ip, 每進行下一組100個url的時候就讓它拿新的10個ip , 但貌似現在就不拿... 文本里的ip還在定時更換, 結果scrapy就拿一次, 再也不拿了..2個服務器, celery+rabbitmq + python+ scrapy爬蟲框架
查看完整描述

1 回答

  • 1 回答
  • 0 關注
  • 1064 瀏覽
慕課專欄
更多

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號