我使用以下代碼將大型文件從Internet流化為本地文件:fp = open(file, 'wb')req = urllib2.urlopen(url)for line in req: fp.write(line)fp.close()這可行,但下載速度很慢。有沒有更快的方法?(文件很大,所以我不想將它們保留在內存中。)
3 回答
嚕嚕噠
TA貢獻1784條經驗 獲得超7個贊
您還可以使用shutil:
import shutil
try:
from urllib.request import urlopen # Python 3
except ImportError:
from urllib2 import urlopen # Python 2
def get_large_file(url, file, length=16*1024):
req = urlopen(url)
with open(file, 'wb') as fp:
shutil.copyfileobj(req, fp, length)
添加回答
舉報
0/150
提交
取消
