亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

你好,請教一下scrapy 爬蟲怎么在程序里把爬蟲停止?

你好,請教一下scrapy 爬蟲怎么在程序里把爬蟲停止?

繁星淼淼 2019-11-25 10:06:32
scrapy 爬蟲怎么在程序里把爬蟲停止
查看完整描述

3 回答

?
森林海

TA貢獻2011條經驗 獲得超2個贊

def __init__(self, crawler):     self.crawler = crawler      @classmethod def from_crawler(cls, crawler):     return cls(crawler) # 結束爬蟲 self.crawler.engine.close_spider(spider, 'closespider')

上面是實現原理,實際上 scrapy.Spider 已經擁有了 crawler 屬性,不必再像上面這樣寫。

在spider中可直接寫:

1self.crawler.engine.close_spider(self'closespider')

在 pipeline 和  中間件Middlewares  中:

1spider.crawler.engine.close_spider(spider, 'closespider')



查看完整回答
反對 回復 2019-12-01
  • 3 回答
  • 0 關注
  • 1804 瀏覽
慕課專欄
更多

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號