亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

scrapy 的 -O命令保存的是空文件

scrapy 的 -O命令保存的是空文件

蕭十郎 2018-08-02 17:54:31
class EastSpider(scrapy.Spider):     name = 'East'     allowed_domains = ['****.com']     start_urls = ['http://finance.***.com/news.html']    def parse(self, response):         nextUrl = response.xpath('//*[contains(@class,"page-btn")]/@href')        for url in nextUrl.extract():             time.sleep(1)            yield Request(urljoin(response.url,url))         contentUrl = response.xpath('//p[@class="title"]/a/@href')        for urls in contentUrl.extract():             time.sleep(1)            yield Request(urls,callback = self.parse)         pass代碼如上,但是在命令行運行scrapy crawl East -o East.csv的結果,East.csv是個空文件,什么都沒寫進去。我看人家說要yield,但是自己搞了搞也沒行...嘗試了在for循環之外添加yield url、yield urls報錯,說是在定義之前引用了,然后在for循環之內添加又沒效果,還是空文件...
查看完整描述

1 回答

  • 1 回答
  • 0 關注
  • 1279 瀏覽
慕課專欄
更多

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號