亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

python爬蟲保存為txt的編碼問題求解決?

python爬蟲保存為txt的編碼問題求解決?

慕尼黑8549860 2018-07-19 04:05:25
代碼如下:# -*- coding: utf-8 -*-#http://www.qiushibaike.com/8hr/page/1?s=4603425import urllib2from bs4 import BeautifulSouppage=1xiubai=open(r'xiubai.txt','w+')for page in range(1,11):    url="http://www.qiushibaike.com/8hr/page/"+str(page)+"?s=4603425"    soup = BeautifulSoup(urllib2.urlopen(url).read())    for result in soup.findAll("div", "content", title=True):        xiubai.write(result.text)報錯:Traceback (most recent call last):   File "D:\python\python2.7.5\pythontest\爬蟲\kanxiushibaike.py", line 13, in <module>     xiubai.write(result.text) UnicodeEncodeError: 'ascii' codec can't encode characters in position 2-10: ordinal not in range(128)不用result.text 直接result雖然包含了html的部分代碼但是又可以轉為str。之后就可以隨便用了。但是直接str(result.text)就會報同樣錯誤
查看完整描述

2 回答

?
慕工程0101907

TA貢獻1887條經驗 獲得超5個贊

查看完整回答
反對 回復 2018-07-19
?
繁華開滿天機

TA貢獻1816條經驗 獲得超4個贊

你查一下Python文檔里的decode和encode

查看完整回答
反對 回復 2018-07-19
?
呼啦一陣風

TA貢獻1802條經驗 獲得超6個贊

xiubai=open(r'xiubai.txt','wb+') 似乎這樣就可以吧?不要說我記混了啊,各種語言稍有不同。

查看完整回答
反對 回復 2018-07-19
  • 2 回答
  • 0 關注
  • 408 瀏覽

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號