亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

使用 Beautiful Soup 從 YouTube 播放列表中抓取曲目鏈接

使用 Beautiful Soup 從 YouTube 播放列表中抓取曲目鏈接

慕容森 2022-12-14 20:47:40
我正在嘗試從我的播放列表中抓取曲目的所有鏈接。這是我的代碼from selenium import webdriver from time import sleepfrom bs4 import BeautifulSoupfrom urllib.request import urlopenimport replaylist = 'minimal_house'url = 'https://www.youtube.com/channel/UCt2GxiTBN_RiE-cbP0cmk5Q/playlists'html = urlopen(url)soup = BeautifulSoup(html , 'html.parser')tracks = soup.find(title = playlist).get('href')print(tracks)url = url + tracksprint(url)html = urlopen(url)soup = BeautifulSoup(html, 'html.parser')links = soup.find_all('a',attrs={'class':'yt-simple-endpoint style-scope ytd-playlist-panel-video-renderer'})print(links)我不能刮'a'; 也不由id; 也不按類名。
查看完整描述

1 回答

?
Helenr

TA貢獻1780條經驗 獲得超4個贊

這是對我有用的混亂代碼:


from selenium import webdriver

from time import sleep

from bs4 import BeautifulSoup

from urllib.request import urlopen

import re


playlist = 'minimal_house'


url = 'https://www.youtube.com/channel/UCt2GxiTBN_RiE-cbP0cmk5Q/playlists'

html = urlopen(url)

soup = BeautifulSoup(html, 'html.parser')

tracks = soup.find('a', attrs={'title': playlist}).get('href')


print(tracks)


url = 'https://www.youtube.com' + str(tracks)

print(url)


html = urlopen(url)


soup = BeautifulSoup(html, 'html.parser')


links = soup.find_all('a')

links = set([link.get('href') for link in links if link.get('href').count('watch')])


print(links)

由于類名會根據設備請求更改,因此在這種情況下最好獲取所有鏈接。并且您需要使用 selenium 向下滾動以獲取所有列表。


查看完整回答
反對 回復 2022-12-14
  • 1 回答
  • 0 關注
  • 115 瀏覽
慕課專欄
更多

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號