亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定

爬蟲url去重——Berkeley DB 性能測試

標簽:
Python

2017年3月7日更新
berkley db 还是不适合应用在生产环境中。今天我ctrl+c强制关程序,berkley db 一直报错:

(-30973, 'BDB0087 DB_RUNRECOVERY: Fatal error, run database recovery -- BDB0060 PANIC: fatal region error detected; run recovery')

这太不健壮了,而且网上资料太少了。
决定放弃这个。。。


爬虫中需要用到大规模url去重,在网上搜索到Berkeley DB,发现非常适合。优点如下:

1、嵌入式数据库,插入和查询非常快,比redis要快(主要是没有网络开销)
2、python中使用非常简单方便

测试流程:

1、生成1000w数字,插入db
2、随机生成一个数字,进行查询
3、生成1000w数字,然后算出md5
4、随机生成一个数字的md5,进行查询

我的测试代码:
代码地址:

https://github.com/xsren/python_test_demo

#coding:utf8import bsddb3import timeimport randomimport hashlib

test_num = 10000000def md5(s):
    return hashlib.md5(s).hexdigest()def insert(db):
    t0 = time.time()    for i in xrange(test_num):
        db[str(i)] = None
    print time.time() - t0def insert_md5(db):
    t0 = time.time()    for i in xrange(test_num):
        db[md5(str(i))] = None
    print time.time() - t0def query(db):
    i = random.randint(0,test_num)
    t0 = time.time()    print db.has_key(str(i))    print time.time() - t0def query_md5(db):
    i = random.randint(0,test_num)
    t0 = time.time()    print db.has_key(md5(str(i)))    print time.time() - t0def main():
    db1 = bsddb3.hashopen('test1.db', 'c')    #插入1000w整数
    insert(db1)
    query(db1)    #插入1000w整数得到的md5
    db2 = bsddb3.hashopen('test2.db', 'c')
    insert_md5(db2)
    query_md5(db2)if __name__ == '__main__':
    main()

测试结果:

https://img1.sycdn.imooc.com//5d31b60e0001f5a407220523.jpg


文件大小.png

结论:

1、插入1000w数字只要112s
2、1000w的md5数据大小为640M
3、一次查询的时间为10us


作者:xsren
链接:https://www.jianshu.com/p/6d02c1ac8c2b

點擊查看更多內容
TA 點贊

若覺得本文不錯,就分享一下吧!

評論

作者其他優質文章

正在加載中
  • 推薦
  • 1
  • 收藏
  • 共同學習,寫下你的評論
感謝您的支持,我會繼續努力的~
掃碼打賞,你說多少就多少
贊賞金額會直接到老師賬戶
支付方式
打開微信掃一掃,即可進行掃碼打賞哦
今天注冊有機會得

100積分直接送

付費專欄免費學

大額優惠券免費領

立即參與 放棄機會
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號

舉報

0/150
提交
取消