class PicSpiderPipeline(ImagesPipeline): def get_media_requests(self, item, info): image_requests = super().get_media_requests(item,info) for img_req in image_requests: img_req.item = item return image_requests def file_path(self, request, response=None, info=None, *, item=None): old_path = super().file_path(request,response,info) title = request.item['title'] save_path = os.path.join(settings.IMAGES_STORE,title[0].replace('|','')) image_name = old_path.replace('full/','') return os.path.join(save_path,image_name) 此代码中怎样知道标题title含有特殊符号

时间: 2024-04-16 14:24:17 浏览: 9
在给`item`赋值的时候,可以使用`re.sub()`函数来替换特殊字符。以下是修改后的代码: ```python import re class PicSpiderPipeline(ImagesPipeline): def get_media_requests(self, item, info): image_requests = super().get_media_requests(item, info) for img_req in image_requests: img_req.item = item return image_requests def file_path(self, request, response=None, info=None, *, item=None): old_path = super().file_path(request, response, info) title = request.item['title'] # 使用re.sub()替换特殊字符 title = re.sub(r'[|]', '', title) save_path = os.path.join(settings.IMAGES_STORE, title[0]) image_name = old_path.replace('full/', '') return os.path.join(save_path, image_name) ``` 在这个修改后的代码中,通过使用`re.sub()`函数,我们将标题中的`|`符号替换为空字符串,这样就可以确保标题中不再含有特殊字符。然后我们仍然使用替换后的标题作为保存路径的一部分。

相关推荐

帮我把一下代码设置一个合理请求头,并加入一个延时import requests import os from bs4 import BeautifulSoup class NovelDownloader: def __init__(self, root_url): self.root_url = root_url self.book_list = [] self.chapter_list = [] def get_url(self, url): while True: try: res = requests.get(url) if res.status_code == 200: print("页面获取成功!") return res.text else: print("页面返回异常!", res.status_code) except: print("页面获取错误!") def get_book_list(self): res = self.get_url(self.root_url) html = BeautifulSoup(res, "html.parser") a_list = html.find_all("a", {"class": "name"}) for a in a_list: self.book_list.append(a["href"]) self.book_list = [self.root_url + i for i in self.book_list] self.book_list.remove('http://www.biquge5200.cc/') def get_chapter_list(self, url): res = self.get_url(url) html = BeautifulSoup(res, "html.parser") a_list = html.find_all("a", {"class": "chapter"}) for a in a_list: self.chapter_list.append((a["href"], a.text.replace("\n", ""))) def get_content(self, chapter): url = self.root_url + chapter[0] print(url) book_name = chapter[0].split("/")[1] print(book_name) if not os.path.exists(book_name): os.mkdir(book_name) res = self.get_url(url) html = BeautifulSoup(res, "html.parser") content = html.find("div", {"id": "content"}).text print(content) path = os.path.join(book_name, chapter[1]) with open(path, "w", encoding="utf8") as f: f.write(content) def main(self): self.get_book_list() for book in self.book_list: self.get_chapter_list(book) for chapter in self.chapter_list: self.get_content(chapter) if __name__ == '__main__': root_url = "http://www.biquge5200.cc/" nd = NovelDownloader(root_url) nd.main()

import requests import os from bs4 import BeautifulSoup class book_spider(): def __init__(self,root_url): self.root_url=root_url self.book_list=[] #一级页面中获取的数据(二级页面地址)存放于此列表 self.chapter_list=[] #二级页面中获取的数据(三级页面地址和章节名)存放于此列表 def get_url(url): while True: try: res=requests.get(url) if res.status_code==200: res.encoding =res.apparent_encoding print("页面获取成功") return res.text else: print("页面返回异常",res.status_code) except: print("页面获取错误") def get_book_list(self.url): res = self.get_url(url) html = BeautifulSoup(res,"html.parser") a_list = html.find_all("a",{"class":"name"}) for a in a_list: self.book_list.append(a["href"]) self.book_list = [self.root_url+i for i in self.bbok_list] self.book_list.remove('http://10.1.88.252:7000/庆余年') print(book_list) def get_chapter_list(self,url): res = self.get_url(url) html = BeautifulSoup(res,"html.parser") a_list = html.find_all("a",{"class":"chapter"}) for a in a_list: self.chapter_list.append((a["href"],a.text.replace("\n",""))) def get_content(self.chapter): url = self.root_url + chapter[0] print(url) book_name = chapter[0].split("/")[1] print(book_name) if not os.path.exists(book_name): os.mkdir(book_name) res = self.get_url(url) html = BeautifulSoup(res,"html.parser") content = html.find("div",{"id":"content"}).text print(content) path = os.path.join(book_name,chapter[1]) with open(path,"w",encoding="utf8") as f: f.write(content) def main(): self.get_book_list(self.root_url) for book in self.book_list: self.get_chapter_liat(book) for chapter in chapter_list: self.get_content(chapter) book_s = book_spider("http://10.1.88.252:7000") book_s.main()这是一段爬虫代码,找出里面的错误并改正

import requests import os from bs4 import BeautifulSoup class book_spider(): def __init__(self,root_url): self.root_url=root_url self.book_list=[] #一级页面中获取的数据(二级页面地址)存放在此列表 self.chapter_list=[] #二级页面中获取的数据(三级页面网址和章节名称)存放此列表 def get_url(self,url): while True: try: res=requests.get(url) if res.status_code==200: #返回http请求状态码 200为正常 res.encoding = res.apparent_encoding #页面编码方式使用页面声明的编码方式 print("页面获取成功!") return res.text else: print("页面返回异常!",res.status_code) except: print("页面获取错误!") def get_book_list(self,url): res =self.get_url(url) html=BeautifulSoup(res,"html.parser") a_list = html.find_all("a",{"class":"name"}) for a in a_list: self.book_list.append(a["href"]) self.book_list=[self.root_url+i for i in self.book_list] self.book_list.remove("http://10.1.88.252:7000/庆余年") def get_chapter_list(self,url): res =self.get_url(url) html = BeautifulSoup(res,"html.parser") a_list = html.find_all("a",{"class":"chapter"}) for a in a_list: self.chapter_list.append((a["href"],a.text.replace("\n",""))) def get_content(self,chapter): url =self.root_url +chapter[0] print(url) book_name = chapter[0].split("/")[1] print(book_name) if not os.path.exists(book_name): os.mkdir(book_name) res =self.get_url(url) html = BeautifulSoup(res,"html.parser") content = html.find("div",{"id":"content"}).text print(content) path=os.path.join(book_name,chapter[1]) with open(path,"w",encoding="utf8")as f: f.write(content) def main(self): self.get_book_list(self.root_url) for book in self.book_list: self.get_chapter_list(book) for chapter in self.chapter_list: self.get_content(chapter) book_s= book_spider("http://10.1.88.252:7000") book_s.main()代码解读

import requests from bs4 import BeautifulSoup import openpyxl class LianJiaSpider(): def __init__(self): self.url = 'https://bj.lianjia.com/ershoufang/pg{0}/' self.headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.131 Safari/537.36 SLBrowser/8.0.0.12022 SLBChan/109'} def send_request(self, url): resp = requests.get(url, headers=self.headers) if resp.status_code == 200: return resp def parse_html(self, resp): lst = [] html = resp.text bs = BeautifulSoup(html, 'lxml') ul = bs.find('ul', class_='sellListContent') li_list = ul.find_all('li') for item in li_list: title = item.find('div', class_='title').text positionInfo = item.find('div', class_='positionInfo').text address = item.find('div', class_='address').text followInfo = item.find('div', class_='followInfo').text tag = item.find('div', class_='tag').text totalPrice = item.find('div', class_='totalPrice totalPrice2').text unitPrice = item.find('div', class_='unitPrice').text # print(unitPrice) lst.append((title, positionInfo, address, followInfo, tag, totalPrice, unitPrice)) print(lst) self.save(lst) def save(self, lst): wb = openpyxl.Workbook() sheet = wb.active for row in lst: sheet.append(row) continue wb.save('D:/爬虫/链家.csv') def start(self): for i in range(1, 5): full_url = self.url.format(i) resp = self.send_request(full_url) #print(resp.text) self.parse_html(resp) if __name__ == '__main__': lianjia = LianJiaSpider() lianjia.start()使用以上代码爬取数据保存到文件中只显示最后一页30条数据,前面页码的数据都被覆盖了,如何更改

import socket import time import requests import tkinter as tk HOST = "192.168.185.60" # 服务器端可以写"localhost",可以为空字符串"",也为本机IP地址 PORT = 8888 # 端口号 class ChatWindow: def __init__(self, master): self.master = master self.master.geometry('500x500') self.master.title('英文翻译聊天室') self.master.protocol('WM_DELETE_WINDOW', self.close_window) self.create_widgets() self.connect_to_server() def create_widgets(self): self.chat_label = tk.Label(self.master, text='聊天记录') self.chat_label.pack() self.chat_text = tk.Text(self.master, height=20) self.chat_text.pack() self.input_label = tk.Label(self.master, text='输入框') self.input_label.pack() self.input_text = tk.Text(self.master, height=5) self.input_text.pack() self.send_button = tk.Button(self.master, text='发送', command=self.send_message) self.send_button.pack() def connect_to_server(self): self.sock = socket.socket(socket.AF_INET, socket.SOCK_STREAM) self.sock.connect((HOST, PORT)) self.chat_text.insert(tk.END, '已连接到服务器\n') def send_message(self): message = self.input_text.get('1.0', tk.END).strip() self.input_text.delete('1.0', tk.END) if not message: return self.sock.sendall(message.encode()) self.chat_text.insert(tk.END, f'发送:{message}\n') self.receive_message() def receive_message(self): data = self.sock.recv(1024) data = data.decode() if data: self.chat_text.insert(tk.END, f'接收:{data}\n') def close_window(self): self.sock.close() self.master.destroy() def translate(text): data1 = {'doctype': 'json', 'type': 'zh_TW', 'i': text} r = requests.get("http://fanyi.youdao.com/translate", params=data1) result = r.json() t1 = result.setdefault('translateResult') t2 = t1[0] t3 = t2[0] return t3.setdefault('tgt') if __name__ == '__main__': root = tk.Tk() chat_window = ChatWindow(root) while True: root.update() try: chat_window.receive_message() except socket.error: break time.sleep(0.05)这串代码有什么问题吗

import requests from lxml import etree import csv import os import pandas as pd import matplotlib.pyplot as plt class MovieDataCollector: def __init__(self): self.url = "https://movie.douban.com/top250?start=%s&filter=" self.headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36' } self.urls = ['https://movie.douban.com/top250?start={}&filter='.format(str(i * 25)) for i in range(10)] self.movies_data = [] def get_first_text(self, element_list): try: return element_list[0].strip() except IndexError: return "" def download_image(self, url, title): response = requests.get(url) image_name = f'{title.replace("/", "_")}.jpg' image_path = os.path.join('films_pic', image_name) with open(image_path, 'wb') as f: f.write(response.content) def scrape_movie_data(self): count = 1 for url in self.urls: res = requests.get(url=url, headers=self.headers) print(res.status_code) html = etree.HTML(res.text) lis = html.xpath('//*[@id="content"]/div/div[1]/ol/li') print('当前是第{}页'.format(count)) for li in lis: rank = self.get_first_text(li.xpath('./div/div[1]/em/text()')) title = self.get_first_text(li.xpath('./div/div[2]/div[1]/a/span[1]/text()')) director = self.get_first_text(li.xpath('./div/div[2]/div[2]/p[1]/text()')) score = self.get_first_text(li.xpath('./div/div[2]/div[2]/div/span[2]/text()')) comment = self.get_first_text(li.xpath('./div/div[2]/div[2]/div/span[4]/text()')) # #下载电影图片 # image_url = self.get_first_text(li.xpath('./div/div[1]/a/img/@src')) # self.download_image(image_url, title) self.movies_data.append({ '排名': rank,解释这段代码

最新推荐

recommend-type

电子、通信、计算机大类学生课程实验的心得体会

电子、通信、计算机大类学生课程实验的心得体会 电子、通信、计算机大类的学生课程实验是工科教育中非常重要的一环,它不仅能够加深学生对理论知识的理解,还能培养学生的实践能力和创新思维。
recommend-type

RTL8188FU-Linux-v5.7.4.2-36687.20200602.tar(20765).gz

REALTEK 8188FTV 8188eus 8188etv linux驱动程序稳定版本, 支持AP,STA 以及AP+STA 共存模式。 稳定支持linux4.0以上内核。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

Redis验证与连接:安装成功验证技巧

![Redis从入门到精通](https://img-blog.csdnimg.cn/6f39d0a2adc3456b96e804eb45032480.png) # 1. Redis安装与验证** ### 2.2 Redis验证方法 Redis验证可以通过以下方法进行: - **命令行验证:** - 打开终端,输入 `redis-cli` 命令进入 Redis 命令行。 - 输入 `ping` 命令,如果返回 "PONG",则表示 Redis 正在运行。 - **客户端验证:** - 使用 Redis 客户端(如 RedisInsight)连接到 Redis 服务器。
recommend-type

3、自定义一个函数int compareStr(char *p1, char *p2),实现两个字符串的比较。相等返回0,大于返回1,小于返回0;编写主函数main()来调用自定义函数完成测试。

下面是自定义的 `compareStr` 函数的代码实现: ```c #include <stdio.h> int compareStr(char *p1, char *p2) { while (*p1 && *p2 && (*p1 == *p2)) { p1++; p2++; } return (*p1 > *p2) - (*p1 < *p2); } int main() { char str1[100], str2[100]; int result; printf("请输入第一个字符串:");
recommend-type

c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf

校园超市商品信息管理系统课程设计旨在帮助学生深入理解程序设计的基础知识,同时锻炼他们的实际操作能力。通过设计和实现一个校园超市商品信息管理系统,学生掌握了如何利用计算机科学与技术知识解决实际问题的能力。在课程设计过程中,学生需要对超市商品和销售员的关系进行有效管理,使系统功能更全面、实用,从而提高用户体验和便利性。 学生在课程设计过程中展现了积极的学习态度和纪律,没有缺勤情况,演示过程流畅且作品具有很强的使用价值。设计报告完整详细,展现了对问题的深入思考和解决能力。在答辩环节中,学生能够自信地回答问题,展示出扎实的专业知识和逻辑思维能力。教师对学生的表现予以肯定,认为学生在课程设计中表现出色,值得称赞。 整个课程设计过程包括平时成绩、报告成绩和演示与答辩成绩三个部分,其中平时表现占比20%,报告成绩占比40%,演示与答辩成绩占比40%。通过这三个部分的综合评定,最终为学生总成绩提供参考。总评分以百分制计算,全面评估学生在课程设计中的各项表现,最终为学生提供综合评价和反馈意见。 通过校园超市商品信息管理系统课程设计,学生不仅提升了对程序设计基础知识的理解与应用能力,同时也增强了团队协作和沟通能力。这一过程旨在培养学生综合运用技术解决问题的能力,为其未来的专业发展打下坚实基础。学生在进行校园超市商品信息管理系统课程设计过程中,不仅获得了理论知识的提升,同时也锻炼了实践能力和创新思维,为其未来的职业发展奠定了坚实基础。 校园超市商品信息管理系统课程设计的目的在于促进学生对程序设计基础知识的深入理解与掌握,同时培养学生解决实际问题的能力。通过对系统功能和用户需求的全面考量,学生设计了一个实用、高效的校园超市商品信息管理系统,为用户提供了更便捷、更高效的管理和使用体验。 综上所述,校园超市商品信息管理系统课程设计是一项旨在提升学生综合能力和实践技能的重要教学活动。通过此次设计,学生不仅深化了对程序设计基础知识的理解,还培养了解决实际问题的能力和团队合作精神。这一过程将为学生未来的专业发展提供坚实基础,使其在实际工作中能够胜任更多挑战。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

Linux系统Redis安装:依赖安装与编译全攻略

![Linux系统Redis安装:依赖安装与编译全攻略](https://img-blog.csdnimg.cn/ae7b8258c74742a4918aaae0e34b0603.png?x-oss-process=image/watermark,type_ZHJvaWRzYW5zZmFsbGJhY2s,shadow_50,text_Q1NETiBAaGFo5p2o5aSn5LuZ,size_20,color_FFFFFF,t_70,g_se,x_16) # 1.1 Redis简介 Redis(Remote Dictionary Server)是一个开源的、内存中的、键值对数据库,用于存储和
recommend-type

2.假设在某30分钟内学生到达图书馆的间隔时间服从在区间均值为5秒的指数分布(exprnd(5)),请编程产生30分钟内所有到达图书馆的学生的到达时刻,并输出到达人数;并绘制学生的到达时刻散点图(横轴为人的序号,纵轴为到达时刻;学生从序号1开始编号).

可以使用Matlab来完成这个任务。代码如下: ```matlab % 生成到达图书馆的学生的到达时刻 lambda = 1/5; % 指数分布的参数 t = 0; % 初始时刻为0 arrivals = []; % 到达时刻数组 while t < 30*60 % 30分钟 t = t + exprnd(lambda); % 生成下一个到达时刻 arrivals(end+1) = t; % 将到达时刻添加到数组中 end % 输出到达人数 num_arrivals = length(arrivals); disp(['到达人数:', num2str(num_arrival
recommend-type

建筑供配电系统相关课件.pptx

建筑供配电系统是建筑中的重要组成部分,负责为建筑内的设备和设施提供电力支持。在建筑供配电系统相关课件中介绍了建筑供配电系统的基本知识,其中提到了电路的基本概念。电路是电流流经的路径,由电源、负载、开关、保护装置和导线等组成。在电路中,涉及到电流、电压、电功率和电阻等基本物理量。电流是单位时间内电路中产生或消耗的电能,而电功率则是电流在单位时间内的功率。另外,电路的工作状态包括开路状态、短路状态和额定工作状态,各种电气设备都有其额定值,在满足这些额定条件下,电路处于正常工作状态。而交流电则是实际电力网中使用的电力形式,按照正弦规律变化,即使在需要直流电的行业也多是通过交流电整流获得。 建筑供配电系统的设计和运行是建筑工程中一个至关重要的环节,其正确性和稳定性直接关系到建筑物内部设备的正常运行和电力安全。通过了解建筑供配电系统的基本知识,可以更好地理解和应用这些原理,从而提高建筑电力系统的效率和可靠性。在课件中介绍了电工基本知识,包括电路的基本概念、电路的基本物理量和电路的工作状态。这些知识不仅对电气工程师和建筑设计师有用,也对一般人了解电力系统和用电有所帮助。 值得一提的是,建筑供配电系统在建筑工程中的重要性不仅仅是提供电力支持,更是为了确保建筑物的安全性。在建筑供配电系统设计中必须考虑到保护装置的设置,以确保电路在发生故障时及时切断电源,避免潜在危险。此外,在电气设备的选型和布置时也需要根据建筑的特点和需求进行合理规划,以提高电力系统的稳定性和安全性。 在实际应用中,建筑供配电系统的设计和建设需要考虑多个方面的因素,如建筑物的类型、规模、用途、电力需求、安全标准等。通过合理的设计和施工,可以确保建筑供配电系统的正常运行和安全性。同时,在建筑供配电系统的维护和管理方面也需要重视,定期检查和维护电气设备,及时发现和解决问题,以确保建筑物内部设备的正常使用。 总的来说,建筑供配电系统是建筑工程中不可或缺的一部分,其重要性不言而喻。通过学习建筑供配电系统的相关知识,可以更好地理解和应用这些原理,提高建筑电力系统的效率和可靠性,确保建筑物内部设备的正常运行和电力安全。建筑供配电系统的设计、建设、维护和管理都需要严谨细致,只有这样才能确保建筑物的电力系统稳定、安全、高效地运行。