亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

pymongo不使用close方法時,內存占用很大,求解

pymongo不使用close方法時,內存占用很大,求解

翻閱古今 2019-05-24 11:40:21
爬蟲時,如果不使用pymongo的close方法,pythonxxx.py內存會一點一點的上漲,最開始900多M,慢慢的就1個多G,快到2G了。但是速度快,在tail-flog的時候,基本看不清輸出信息。如果使用了close方法,內存穩定在500M左右,但是讀和取數據庫速度慢,在taillog的時候,能看到正在保存哪個URL,正在獲取哪個URL。請問我該如何解決這個問題呢。#-*-coding:utf-8-*-importloggingimportsettingimporttime,datetimefromsettingimportmongo_host,mongo_port,mongo_db_name_data,mongo_db_name_linkbase,mongo_db_name_taskimportpymongologging.basicConfig(filename='log',level=logging.INFO)classConnect_mongo(object):def__init__(self):self.mongo_host=mongo_hostself.mongo_port=mongo_portself.conn()defconn(self):self.client=pymongo.MongoClient(host=self.mongo_host,port=self.mongo_port)self.db_data=self.client[mongo_db_name_data]self.db_linkbase=self.client[mongo_db_name_linkbase]self.db_linkbase_collection=self.db_linkbase.linkbaseself.db_task=self.client[mongo_db_name_task]definsert_db(self,item):setting.my_logger.info('當前插入數據庫的最終數據為%s'%item)self.db_data.xxx_data.update({"car_id":item['car_id']},item,True)self.client.close()defsave_linkbase(self,response_result,spider_name,hash_url,item_type):ifitem_type=='carinfo_item':linkinfo={}linkinfo['status']=response_result.status_codelinkinfo['url']=response_result.urllinkinfo['spider_name']=spider_namelinkinfo['hash_url']=hash_url#保存到linkbaseself.db_linkbase_collection.update({"status":linkinfo['status'],"hash_url":hash_url},linkinfo,True)self.client.close()else:self.db_linkbase_collection.create_index([("over_time",pymongo.ASCENDING)],expireAfterSeconds=7200)linkinfo={}linkinfo['status']=response_result.status_codelinkinfo['url']=response_result.urllinkinfo['spider_name']=spider_namelinkinfo['hash_url']=hash_urllinkinfo['over_time']=datetime.datetime.utcnow()#保存到linkbaseself.db_linkbase_collection.update({"status":linkinfo['status'],"hash_url":hash_url},linkinfo,True)self.client.close()defsave_task(self,task):setting.my_logger.info('當前插入數據庫的task信息為%s'%task)self.db_task.xxx_task.update({'url':task['url']},task,True)self.client.close()defget_task(self,max_requests=10):task=[]foriinrange(max_requests):result=self.db_task.xxx_task.find_one_and_delete({})task.append(result)returntaskdefduplicate_removal(self,hash_data):result=self.db_linkbase.linkbase.find_one({'hash_url':hash_data})ifresult==None:returnTrueelse:returnFalsemongo_insert=Connect_mongo()在另一個py文件中使用requests進行爬蟲和xpath進行處理,然后存儲或取數據庫。
查看完整描述

2 回答

?
慕姐8265434

TA貢獻1813條經驗 獲得超2個贊

內存占用跟你取出來的數據是如何緩存,以及你是否釋放了內存有關。舉個例子,一次性取出5萬條記錄,然后存在一個list中,如果取多了,不停往list中添加,內存占用自然就大了,因為本身內存中存的數據就這么大,你都要用到,這是沒辦法解決的問題。除非你擴內存條。而如果是另一種情況,你每次都實例化一個MongoClient,查詢出來的task沒有刪掉,就會導致無用的result還緩存著數據,沒有被回收,導致內存成倍增長。此時,只要在你不用這些數據的時候deltask一下就OK了。你如何使用的,如何導致內存增長的得自己看。
                            
查看完整回答
反對 回復 2019-05-24
  • 2 回答
  • 0 關注
  • 1108 瀏覽
慕課專欄
更多

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號