亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定

scrapy 爬取數據保存為本地JSON文件 - 編碼問題

標簽:
Python 爬蟲

保存 json 文件 命令行启动如下:

scrapy crawl 程序名 -o item.json

上面保存的json文件 中文内容 会是 二进制字符,使用如下命名进行编码:

scrapy crawl 程序名 -o item.json -sscrapy crawl 程序名 -o item.json -s FEED_EXPORT_ENCODING=UTF-8

也可以在settings.py 文件中设置添加

FEED_EXPORT_ENCODING = 'UTF8'

此时不需要在命令行中添加FEED_EXPORT_ENCODING选项了。

點擊查看更多內容
2人點贊

若覺得本文不錯,就分享一下吧!

評論

作者其他優質文章

正在加載中
感謝您的支持,我會繼續努力的~
掃碼打賞,你說多少就多少
贊賞金額會直接到老師賬戶
支付方式
打開微信掃一掃,即可進行掃碼打賞哦
今天注冊有機會得

100積分直接送

付費專欄免費學

大額優惠券免費領

立即參與 放棄機會
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號

舉報

0/150
提交
取消