亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定

有14條數據,然后報了‘pymysql.err.Error: Already closed’這個錯誤

#coding=utf-8


import urllib

from bs4 import BeautifulSoup

import re

import pymysql.cursors



resp = urllib.urlopen('https://en.wikipedia.org/wiki/Main_Page').read().decode('utf-8')

soup = BeautifulSoup(resp, "html.parser")



# 獲取所有以/wiki/開頭的a標簽的href屬性

listUrls = soup.findAll("a", href=re.compile("^/wiki/"))

# 輸出所有的詞條對應的名稱和URL

for url in listUrls:

# 過濾以。jpg或JPG結尾的url

if not re.search("\.(jpg|JPG)$", url['href']):

print url.get_text(), '<======>','https://en.wikipedia.org'+url['href']

# 獲取數據庫連接

connection = pymysql.connect(host = 'localhost',

user = 'root',

password = '6322004',

db = 'wikiurl',

charset = 'utf8mb4')


try:

# 獲取會話指針

with connection.cursor() as cursor:

sql = "insert into `urls`(`urlname`, `urlhref`) values(%s, %s)"


# 執行sql語句

cursor.execute(sql,(url.get_text(),'https://en.wikipedia.org'+url['href']))

connection.commit()

finally:

connection.close()


正在回答

2 回答

finally:

connection.close()

把這塊去掉

0 回復 有任何疑惑可以回復我~

你縮進就是這樣的嗎?

0 回復 有任何疑惑可以回復我~

舉報

0/150
提交
取消

有14條數據,然后報了‘pymysql.err.Error: Already closed’這個錯誤

我要回答 關注問題
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號