Python之簡單網絡爬蟲】BeautifulSoup——按節點的名字、屬性和文字進行搜索(以及正則表達式的使用)
https://blog.csdn.net/weixin_43971764/article/details/86563814
歡迎各位看官光臨茶館~~~~
https://blog.csdn.net/weixin_43971764/article/details/86563814
歡迎各位看官光臨茶館~~~~
2019-01-20
網址不對,百度網址是https://www.baidu.com/,而不是http://www.baidu.com/,他們的長度和cookie都不一樣
2019-01-19
爬1000條有些失敗,但是基本上可以用了,源碼我已經上傳了https://github.com/leiphp/spider-baike
2019-01-05
在python3.3里面,用urllib.request代替urllib2,另外python3之后,不能再用,print html
注意:print 的東西要用()括起來。
這樣的方式,因為print這個時候已經是一個方法了。必須使用下面的方法
可以將代碼換成:
import urllib.request
resp=urllib.request.urlopen('http://www.baidu.com')
html=resp.read()
print(html)
注意:print 的東西要用()括起來。
這樣的方式,因為print這個時候已經是一個方法了。必須使用下面的方法
可以將代碼換成:
import urllib.request
resp=urllib.request.urlopen('http://www.baidu.com')
html=resp.read()
print(html)
2019-01-03
這個是針對py2版本的...所以朋友們要看,建議看python3的版本的...否則這個學完你會一臉懵逼的懷疑人生,我靠...
2018-12-30
老師講的很清晰,思路明確。跟著老師敲了一遍,經過兩天的摸索差不多才明白。
下面是我跟著老師寫的代碼,python3.7+bd4+urlib3環境下能運行:https://github.com/xinwang296/webspider2.git
下面是我跟著老師寫的代碼,python3.7+bd4+urlib3環境下能運行:https://github.com/xinwang296/webspider2.git