python re模块爬取豆瓣250海报

时间: 2023-11-17 13:04:47 浏览: 47
以下是使用Python re模块爬取豆瓣250电影海报的代码: ```python import requests import re # 获取网页内容 url = 'https://movie.douban.com/top250' response = requests.get(url) content = response.text # 使用正则表达式匹配海报链接 pattern = re.compile(r'<img.*?src="(.*?)"', re.S) results = re.findall(pattern, content) # 下载海报 for i, result in enumerate(results): response = requests.get(result) with open(f'{i}.jpg', 'wb') as f: f.write(response.content) ``` 该代码首先使用requests模块获取豆瓣电影Top250的网页内容,然后使用正则表达式匹配出所有海报的链接,最后使用requests模块下载海报并保存到本地。
相关问题

python代码实现爬取豆瓣电影250

好的,我可以帮你回答这个问题。以下是实现爬取豆瓣电影250的Python代码: ```python import requests from bs4 import BeautifulSoup url = 'https://movie.douban.com/top250' headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} def get_movie_info(movie_list): for movie in movie_list: movie_name = movie.find('span', class_='title').get_text() movie_rating = movie.find('span', class_='rating_num').get_text() print(movie_name, movie_rating) def get_movie_list(url): res = requests.get(url, headers=headers) soup = BeautifulSoup(res.text, 'html.parser') movie_list = soup.find_all('div', class_='info') return movie_list if __name__ == '__main__': for i in range(0, 250, 25): url = f'https://movie.douban.com/top250?start={i}&filter=' movie_list = get_movie_list(url) get_movie_info(movie_list) ``` 这个代码使用requests库和BeautifulSoup库,发送网络请求获取网页源码,然后使用BeautifulSoup来解析源码,最后将豆瓣电影250的电影名称和评分输出到控制台。通过遍历不同的URL链接,我们可以获取豆瓣电影250的所有电影信息。

python用selenium爬取豆瓣电影top250

好的,以下是使用python和selenium爬取豆瓣电影top250的代码示例: ```python from selenium import webdriver url = 'https://movie.douban.com/top250' driver = webdriver.Chrome() # 需要安装Chrome浏览器和对应版本的chromedriver driver.get(url) # 循环获取每一页的电影信息 while True: # 获取当前页的电影信息 movie_list = driver.find_elements_by_xpath('//div[@class="info"]') for movie in movie_list: title = movie.find_element_by_xpath('div[@class="hd"]/a/span[@class="title"]').text rating = movie.find_element_by_xpath('div[@class="bd"]/div[@class="star"]/span[@class="rating_num"]').text print(title, rating) # 判断是否有下一页,如果没有则结束循环 next_page = driver.find_element_by_xpath('//span[@class="next"]/a') if not next_page: break # 进入下一页 next_page.click() driver.quit() ``` 这段代码会打印出豆瓣电影top250中每部电影的名称和评分。注意需要安装Chrome浏览器和对应版本的chromedriver,并将chromedriver的路径添加到系统环境变量中。

相关推荐

最新推荐

recommend-type

python 爬取豆瓣电影评论,并进行词云展示

# -*-coding:utf-8-*- import urllib.request from bs4 import BeautifulSoup def getHtml(url): """获取url页面""" headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, ...
recommend-type

Python3 实现爬取网站下所有URL方式

今天小编就为大家分享一篇Python3 实现爬取网站下所有URL方式,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
recommend-type

Python selenium爬取微信公众号文章代码详解

主要介绍了Python selenium爬取微信公众号历史文章代码详解,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
recommend-type

Python爬虫爬取电影票房数据及图表展示操作示例

主要介绍了Python爬虫爬取电影票房数据及图表展示操作,结合实例形式分析了Python爬虫爬取、解析电影票房数据并进行图表展示操作相关实现技巧,需要的朋友可以参考下
recommend-type

node-v4.8.6-win-x64.zip

Node.js,简称Node,是一个开源且跨平台的JavaScript运行时环境,它允许在浏览器外运行JavaScript代码。Node.js于2009年由Ryan Dahl创立,旨在创建高性能的Web服务器和网络应用程序。它基于Google Chrome的V8 JavaScript引擎,可以在Windows、Linux、Unix、Mac OS X等操作系统上运行。 Node.js的特点之一是事件驱动和非阻塞I/O模型,这使得它非常适合处理大量并发连接,从而在构建实时应用程序如在线游戏、聊天应用以及实时通讯服务时表现卓越。此外,Node.js使用了模块化的架构,通过npm(Node package manager,Node包管理器),社区成员可以共享和复用代码,极大地促进了Node.js生态系统的发展和扩张。 Node.js不仅用于服务器端开发。随着技术的发展,它也被用于构建工具链、开发桌面应用程序、物联网设备等。Node.js能够处理文件系统、操作数据库、处理网络请求等,因此,开发者可以用JavaScript编写全栈应用程序,这一点大大提高了开发效率和便捷性。 在实践中,许多大型企业和组织已经采用Node.js作为其Web应用程序的开发平台,如Netflix、PayPal和Walmart等。它们利用Node.js提高了应用性能,简化了开发流程,并且能更快地响应市场需求。
recommend-type

zigbee-cluster-library-specification

最新的zigbee-cluster-library-specification说明文档。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

实现实时数据湖架构:Kafka与Hive集成

![实现实时数据湖架构:Kafka与Hive集成](https://img-blog.csdnimg.cn/img_convert/10eb2e6972b3b6086286fc64c0b3ee41.jpeg) # 1. 实时数据湖架构概述** 实时数据湖是一种现代数据管理架构,它允许企业以低延迟的方式收集、存储和处理大量数据。与传统数据仓库不同,实时数据湖不依赖于预先定义的模式,而是采用灵活的架构,可以处理各种数据类型和格式。这种架构为企业提供了以下优势: - **实时洞察:**实时数据湖允许企业访问最新的数据,从而做出更明智的决策。 - **数据民主化:**实时数据湖使各种利益相关者都可
recommend-type

如何用python编写api接口

在Python中编写API接口可以使用多种框架,其中比较流行的有Flask和Django。这里以Flask框架为例,简单介绍如何编写API接口。 1. 安装Flask框架 使用pip命令安装Flask框架: ``` pip install flask ``` 2. 编写API接口 创建一个Python文件,例如app.py,编写以下代码: ```python from flask import Flask, jsonify app = Flask(__name__) @app.route('/api/hello', methods=['GET']) def hello():
recommend-type

JSBSim Reference Manual

JSBSim参考手册,其中包含JSBSim简介,JSBSim配置文件xml的编写语法,编程手册以及一些应用实例等。其中有部分内容还没有写完,估计有生之年很难看到完整版了,但是内容还是很有参考价值的。