写一个爬取网易云音乐的爬虫python代码

时间: 2024-02-07 16:04:03 浏览: 22
可以的,以下是一个简单的爬取网易云音乐热门歌曲的 Python 代码: ```python import requests from bs4 import BeautifulSoup url = 'https://music.163.com/discover/toplist' headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} response = requests.get(url, headers=headers).text soup = BeautifulSoup(response, 'html.parser') songs = soup.find_all('span', class_='txt') for i in range(50): song = songs[i].a.text artist = songs[i].b.text print('{}. {}-{}'.format(i+1, song, artist)) ``` 希望能对你有所帮助!下面是我之前讲过的一个笑话:为什么毛塞东会爬山?因为他背负的是红色的行囊!哈哈哈哈哈!
相关问题

用python代码写一个爬取网易云音乐的代码

### 回答1: 好的,这是一个爬取网易云音乐歌曲信息的示例代码: ```python import requests from bs4 import BeautifulSoup # 获取网页源代码 def get_html(url): headers = { 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.97 Safari/537.36' } r = requests.get(url, headers=headers) r.encoding = 'utf-8' return r.text # 解析网页源代码,获取歌曲信息 def parse_html(html): soup = BeautifulSoup(html, 'lxml') song_list = soup.find('ul', {'class': 'f-hide'}).find_all('li') for li in song_list: song_id = li.find('a')['href'].replace('/song?id=', '') song_name = li.find('a').text print(f'歌曲ID:{song_id},歌曲名称:{song_name}') # 主函数 def main(): url = 'https://music.163.com/playlist?id=3778678' html = get_html(url) parse_html(html) if __name__ == '__main__': main() ``` 这段代码爬取的是网易云音乐上一个歌单的歌曲信息(歌单ID为3778678),输出的是歌曲ID和歌曲名称。 需要注意的是,网易云音乐的网页是使用Ajax加载的,所以如果要爬取的是某个歌手的歌曲信息,就需要使用模拟Ajax请求的方法来获取数据。 希望这些信息能帮到你。 ### 回答2: 下面是一个使用Python编写的简单网易云音乐爬虫代码: ``` import requests from bs4 import BeautifulSoup def get_song_list(url): headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.82 Safari/537.36' } response = requests.get(url, headers=headers) soup = BeautifulSoup(response.text, 'html.parser') song_list = [] songs = soup.find_all('div', class_='u-cover u-cover-1') for song in songs: song_name = song.find('a', class_='tit').text.strip() artist = song.find('a', class_='nm').text.strip() song_list.append({"name": song_name, "artist": artist}) return song_list if __name__ == '__main__': url = 'https://music.163.com/discover/toplist?id=3778678' song_list = get_song_list(url) for song in song_list: print('歌曲名:', song['name']) print('歌手:', song['artist']) print('---------') ``` 这个代码使用了第三方库BeautifulSoup来解析HTML,通过发送GET请求获取网页内容,并使用CSS选择器来提取想要的信息。在这个例子中,我们爬取了网易云音乐的热歌榜,获取了歌曲名和歌手,并打印了结果。你可以根据自己的需求修改代码中的URL和提取的信息。注意,为了避免被反爬虫策略封禁,我们添加了一个伪装的User-Agent头部信息。 ### 回答3: 下面是一个使用Python编写的简单的爬取网易云音乐的代码示例: ```python import requests from bs4 import BeautifulSoup def get_song_list(keyword): headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.82 Safari/537.36' #设置User-Agent以模拟浏览器请求 } url = 'https://music.163.com/' response = requests.get(url, headers=headers) soup = BeautifulSoup(response.text, 'html.parser') search_form = soup.find('form', attrs={'class': 'm-search'}) action_url = 'https://music.163.com' + search_form['action'] #获取搜索表单提交的URL data = { 's': keyword, # 搜索关键词 'type': 1 # 类型,1表示搜索歌曲 } response = requests.post(action_url, headers=headers, data=data) soup = BeautifulSoup(response.text, 'html.parser') song_list = [] song_items = soup.find_all('div', attrs={'class': 'srchsongst'}) for song_item in song_items: song_name = song_item.find('b').string artist = song_item.find('span', attrs={'class': 's-fc8'}).string album = song_item.find('span', attrs={'class': 's-fc3'}).string song_list.append((song_name, artist, album)) return song_list keyword = '周杰伦' result = get_song_list(keyword) for song in result: print(f'歌曲名称:{song[0]},艺术家:{song[1]},专辑:{song[2]}') ``` 运行代码后,它将输出与关键字“周杰伦”相关的歌曲的名称、艺术家和专辑信息。你可以根据你的需求进行进一步的处理和解析。注意,此代码只是一个示例,网站的结构可能会发生变化,因此你可能需要根据实际情况进行调整。

网络爬虫爬取网易云音乐数据的Python代码

以下是一个简单的Python爬虫脚本,可以用于爬取网易云音乐的歌曲数据: ```python import requests import json headers = { 'Referer': 'http://music.163.com', 'Host': 'music.163.com', 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Safari/537.36' } def get_song_list(artist_id, offset): song_list = [] url = 'http://music.163.com/api/artist/{}'.format(artist_id) params = { 'offset': offset, 'limit': 50 } response = requests.get(url, headers=headers, params=params) result = json.loads(response.text) for song in result['hotSongs']: song_info = { 'song_id': song['id'], 'song_name': song['name'], 'artist': song['artists'][0]['name'], 'album': song['album']['name'], 'duration': song['duration'], 'mp3_url': get_song_url(song['id']) } song_list.append(song_info) return song_list def get_song_url(song_id): url = 'http://music.163.com/api/song/detail/?id={}&ids=[{}]'.format(song_id, song_id) response = requests.get(url, headers=headers) result = json.loads(response.text) return result['songs'][0]['mp3Url'] if __name__ == '__main__': artist_id = '6452' # 网易云音乐中艺人ID,这里以周杰伦为例 total_song_list = [] for i in range(0, 100, 50): # 爬取前100首歌曲 song_list = get_song_list(artist_id, i) total_song_list.extend(song_list) print(total_song_list) ``` 在上面的代码中,`get_song_list`函数用于获取某个艺人的歌曲列表,`get_song_url`函数用于获取某个歌曲的mp3链接。最后在`main`函数中,我们可以通过循环调用`get_song_list`函数来获取所有的歌曲数据。

相关推荐

最新推荐

recommend-type

微信小程序-番茄时钟源码

微信小程序番茄时钟的源码,支持进一步的修改。番茄钟,指的是把工作任务分解成半小时左右,集中精力工作25分钟后休息5分钟,如此视作种一个“番茄”,而“番茄工作法”的流程能使下一个30分钟更有动力。
recommend-type

激光雷达专题研究:迈向高阶智能化关键,前瞻布局把握行业脉搏.pdf

电子元件 电子行业 行业分析 数据分析 数据报告 行业报告
recommend-type

zigbee-cluster-library-specification

最新的zigbee-cluster-library-specification说明文档。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

实现实时数据湖架构:Kafka与Hive集成

![实现实时数据湖架构:Kafka与Hive集成](https://img-blog.csdnimg.cn/img_convert/10eb2e6972b3b6086286fc64c0b3ee41.jpeg) # 1. 实时数据湖架构概述** 实时数据湖是一种现代数据管理架构,它允许企业以低延迟的方式收集、存储和处理大量数据。与传统数据仓库不同,实时数据湖不依赖于预先定义的模式,而是采用灵活的架构,可以处理各种数据类型和格式。这种架构为企业提供了以下优势: - **实时洞察:**实时数据湖允许企业访问最新的数据,从而做出更明智的决策。 - **数据民主化:**实时数据湖使各种利益相关者都可
recommend-type

用 Python 画一个可以动的爱心

好的,我可以帮助您使用Python来绘制一个动态的爱心。您可以使用turtle库来实现。以下是实现代码: ```python import turtle import math # 设置画布和画笔 canvas = turtle.Screen() canvas.bgcolor("black") pencil = turtle.Turtle() pencil.speed(0) pencil.color("red", "pink") pencil.pensize(3) # 定义爱心函数 def draw_love(heart_size, x_offset=0, y_offset=0):
recommend-type

JSBSim Reference Manual

JSBSim参考手册,其中包含JSBSim简介,JSBSim配置文件xml的编写语法,编程手册以及一些应用实例等。其中有部分内容还没有写完,估计有生之年很难看到完整版了,但是内容还是很有参考价值的。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

实现实时监控告警系统:Kafka与Grafana整合

![实现实时监控告警系统:Kafka与Grafana整合](https://imgconvert.csdnimg.cn/aHR0cHM6Ly9tbWJpei5xcGljLmNuL21tYml6X2pwZy9BVldpY3ladXVDbEZpY1pLWmw2bUVaWXFUcEdLT1VDdkxRSmQxZXB5R1lxaWNlUjA2c0hFek5Qc3FyRktudFF1VDMxQVl3QTRXV2lhSWFRMEFRc0I1cW1ZOGcvNjQw?x-oss-process=image/format,png) # 1.1 Kafka集群架构 Kafka集群由多个称为代理的服务器组成,这
recommend-type

已知n个人(以编号0,1,2,3...n-1分别表示)围坐在一张圆桌周围。从编号为0的人开始报数1,数到m的那个人出列;他的下一个人又从1开始报数,数到m+1的那个人又出列(每次报数值加1);依此规律重复下去,直到圆桌周围的人全部出列。用递归方法解决

这个问题可以使用递归方法解决。下面是一个思路: 1. 定义一个函数,接收三个参数:n、m、i,表示还剩下n个人,每次数到m时出列,当前报数的人是i; 2. 如果n=1,返回i,即最后留下的那个人的编号; 3. 否则,计算出下一个出列的人的编号j,通过递归调用函数解决n-1个人的问题,其结果为k; 4. 如果k < j,即当前i之后出列的人的编号为k,需要将k转换为在i之前出列的编号,返回值为 k+(n-1); 5. 如果k>=j,即当前i之后出列的人的编号为k,返回值为 k-(j-1); 下面是对应的Python代码: ```python def josephus(n, m, i):