def save_txt(str_list:list,name): with open(name,'w',encoding='utf-8') as f: for i in str_list: f.write(i+'\n')

时间: 2024-05-21 20:17:49 浏览: 8
这是一个保存列表到文本文件的函数,函数名为`save_txt`,接收两个参数:`str_list`和`name`。其中,`str_list`是要保存的字符串列表,`name`是要保存到的文件名。 函数内部使用`with open`语句打开文件并指定写入模式和编码方式。然后遍历`str_list`中的每个字符串,将其写入文件并在每个字符串末尾添加一个换行符。最后,自动关闭文件。
相关问题

import requests from bs4 import BeautifulSoup import csv def get_top250_movies(): url = 'https://movie.douban.com/top250' headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} movie_info_list = [] for i in range(0, 250, 25): params = {'start': str(i)} res = requests.get(url, headers=headers, params=params) soup = BeautifulSoup(res.text, 'html.parser') movie_list = soup.find_all('div', class_='info') for movie in movie_list: title = movie.find('span', class_='title').text info = movie.find('div', class_='bd').p.text.strip().split('\n') director = info[0][4:] actors = info[1][3:] year = info[1][-5:-1] rating = movie.find('span', class_='rating_num').text comment_num = movie.find('div', class_='star').find_all('span')[3].text[:-3] movie_info_list.append([title, director, actors, year, rating, comment_num]) return movie_info_list def save_to_csv(movie_info_list): with open('movie_info.csv', 'w', newline='', encoding='utf-8-sig') as f: writer = csv.writer(f) writer.writerow(['电影名称', '导演', '演员', '上映年份', '评分', '评论数']) for movie_info in movie_info_list: writer.writerow(movie_info) if __name__ == '__main__': movie_info_list = get_top250_movies() save_to_csv(movie_info_list) print('电影信息保存成功!')将此代码运行成功后保存的六个信息分别单独成一列

可以在save_to_csv函数中将每个信息分别写入csv文件中的一列,修改后代码如下: ```python import requests from bs4 import BeautifulSoup import csv def get_top250_movies(): url = 'https://movie.douban.com/top250' headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3' } movie_info_list = [] for i in range(0, 250, 25): params = {'start': str(i)} res = requests.get(url, headers=headers, params=params) soup = BeautifulSoup(res.text, 'html.parser') movie_list = soup.find_all('div', class_='info') for movie in movie_list: title = movie.find('span', class_='title').text info = movie.find('div', class_='bd').p.text.strip().split('\n') director = info[0][4:] actors = info[1][3:] year = info[1][-5:-1] rating = movie.find('span', class_='rating_num').text comment_num = movie.find('div', class_='star').find_all('span')[3].text[:-3] movie_info_list.append([title, director, actors, year, rating, comment_num]) return movie_info_list def save_to_csv(movie_info_list): with open('movie_info.csv', 'w', newline='', encoding='utf-8-sig') as f: writer = csv.writer(f) writer.writerow(['电影名称', '导演', '演员', '上映年份', '评分', '评论数']) for movie_info in movie_info_list: writer.writerow(movie_info) # 将每个信息分别写入csv文件中的一列 with open('movie_info.csv', 'r', newline='', encoding='utf-8-sig') as f_read: with open('movie_info_new.csv', 'w', newline='', encoding='utf-8-sig') as f_write: reader = csv.reader(f_read) writer = csv.writer(f_write) for row in reader: for i in range(len(row)): writer.writerow([row[i]]) # 删除原文件 import os os.remove('movie_info.csv') # 重命名新文件 os.rename('movie_info_new.csv', 'movie_info.csv') if __name__ == '__main__': movie_info_list = get_top250_movies() save_to_csv(movie_info_list) print('电影信息保存成功!') ``` 运行修改后的代码,会在同级目录下生成一个名为'movie_info.csv'的文件,其中每个信息分别单独成一列。

import http.client from html.parser import HTMLParser import argparse from concurrent.futures import ThreadPoolExecutor import multiprocessing.pool prefix = "save/" readed_path = multiprocessing.Manager().list() cur_path = multiprocessing.Manager().list() new_path = multiprocessing.Manager().list() lock = multiprocessing.Lock() class MyHttpParser(HTMLParser): def __init__(self): HTMLParser.__init__(self) self.tag = [] self.href = "" self.txt = "" def handle_starttag(self, tag, attrs): self.tag.append(tag) # print("start tag in list :" + str(self.tag)) if tag == "a": for att in attrs: if att[0] == 'href': self.href = att[1] def handle_endtag(self, tag): if tag == "a" and len(self.tag) > 2 and self.tag[-2] == "div": print("in div, link txt is %s ." % self.txt) print("in div, link url is %s ." % self.href) lock.acquire() if not self.href in readed_path: readed_path.append(self.href) new_path.append(self.href) # print("end tag in list :" + str(self.tag)) lock.release() self.tag.pop(-1) def handle_data(self, data): if len(self.tag) >= 1 and self.tag[-1] == "a": self.txt = data def LoadHtml(path, file_path): if len(file_path) == 0: file_path = "/" conn = http.client.HTTPConnection(path) try: conn.request("GET", file_path) response = conn.getresponse() print(response.status, response.reason, response.version) data = response.read().decode("utf-8") if response.status == 301: data = response.getheader("Location") lock.acquire() new_path.append(data) lock.release() data = "" #print(data) conn.close() return data except Exception as e: print(e.args) def ParseArgs(): # 初始化解析器 parser = argparse.ArgumentParser() # 定义参数 parser.add_argument("-p", "--path", help="域名") parser.add_argument("-d", "--deep", type=int, help="递归深度") # 解析 args = parser.parse_args() return args def formatPath(path): path = path.removeprefix("https://") path = path.removeprefix("http://") path = path.removeprefix("//") return path def doWork(path): path = formatPath(path) m = path.find("/") if m == -1: m = len(path) data = LoadHtml(path[:m], path[m:]) with open(prefix + path[:m] + ".html", "w+", encoding="utf-8") as f: f.write(data) parse.feed(data) def work(deep,maxdeep): if deep > maxdeep: return args = ParseArgs() cur_path.append(formatPath(args.path)) readed_path.append(formatPath(args.path)) parse = MyHttpParser() e = multiprocessing.Pool(4) for i in range(args.deep): size = len(cur_path) e.map(doWork,cur_path) cur_path[:]=[] for p in new_path: cur_path.append(p) new_path[:]=[] print(i)优化此代码能在windows下运行

在Windows下,`multiprocessing` 库不支持在交互式(interactive)窗口下运行,需要将其放在一个独立的脚本中运行。另外,如果要使用 `multiprocessing.Manager().list()` 实现进程间共享数据,需要使用 `multiprocessing.Manager()` 返回的对象来创建进程池(`multiprocessing.Pool()`)。 以下是对代码的优化: 1. 将 `multiprocessing.Manager().list()` 替换为 `multiprocessing.Manager().Queue()`,因为 Queue 更适合用于进程间通信。 2. 将 `multiprocessing.Pool()` 替换为 `concurrent.futures.ProcessPoolExecutor()`,因为后者可以更好地处理进程池中的异常。 3. 将 `work()` 函数改为使用 `concurrent.futures.ProcessPoolExecutor()` 来执行任务。 4. 将 `MyHttpParser` 类的属性(`tag`、`href`、`txt`)改为实例属性,因为多个进程可能同时访问这些属性。 5. 在 `doWork()` 函数中,改为使用 `requests` 库来发送 HTTP 请求,因为它比 `http.client` 更易用。 以下是优化后的代码: ```python import requests from html.parser import HTMLParser import argparse from concurrent.futures import ThreadPoolExecutor, ProcessPoolExecutor, as_completed import multiprocessing prefix = "save/" readed_path = multiprocessing.Manager().Queue() cur_path = multiprocessing.Manager().Queue() new_path = multiprocessing.Manager().Queue() lock = multiprocessing.Lock() class MyHttpParser(HTMLParser): def __init__(self): super().__init__() self.tag = [] self.href = "" self.txt = "" def handle_starttag(self, tag, attrs): self.tag.append(tag) if tag == "a": for att in attrs: if att[0] == 'href': self.href = att[1] def handle_endtag(self, tag): if tag == "a" and len(self.tag) > 2 and self.tag[-2] == "div": print("in div, link txt is %s ." % self.txt) print("in div, link url is %s ." % self.href) if not self.href in readed_path.queue: readed_path.put(self.href) new_path.put(self.href) self.tag.pop(-1) def handle_data(self, data): if len(self.tag) >= 1 and self.tag[-1] == "a": self.txt = data def LoadHtml(path, file_path): if len(file_path) == 0: file_path = "/" url = f"http://{path}{file_path}" try: response = requests.get(url) print(response.status_code, response.reason, response.raw.version) data = response.content.decode("utf-8") if response.status_code == 301: data = response.headers["Location"] if not data in readed_path.queue: new_path.put(data) data = "" return data except Exception as e: print(e.args) def ParseArgs(): parser = argparse.ArgumentParser() parser.add_argument("-p", "--path", help="domain name") parser.add_argument("-d", "--deep", type=int, help="recursion depth") args = parser.parse_args() return args def formatPath(path): path = path.removeprefix("https://") path = path.removeprefix("http://") path = path.removeprefix("//") return path def doWork(path): path = formatPath(path) m = path.find("/") if m == -1: m = len(path) data = LoadHtml(path[:m], path[m:]) with open(prefix + path[:m] + ".html", "w+", encoding="utf-8") as f: f.write(data) parse.feed(data) def work(maxdeep): args = ParseArgs() cur_path.put(formatPath(args.path)) readed_path.put(formatPath(args.path)) parse = MyHttpParser() with ProcessPoolExecutor(max_workers=4) as executor: for i in range(args.deep): size = cur_path.qsize() futures = [executor.submit(doWork, cur_path.get()) for _ in range(size)] for future in as_completed(futures): try: future.result() except Exception as e: print(e) cur_path.queue.clear() while not new_path.empty(): cur_path.put(new_path.get()) print(i) if __name__ == '__main__': work(5) ```

相关推荐

import http.clientfrom html.parser import HTMLParserimport argparsefrom concurrent.futures import ThreadPoolExecutorimport threadingprefix = "save/"readed_path = set()cur_path = []new_path = []lock = threading.Lock()cond=threading.Condition()class MyHttpParser(HTMLParser): def __init__(self): HTMLParser.__init__(self) self.tag = [] self.href = "" self.txt = "" def handle_starttag(self, tag, attrs): self.tag.append(tag) # print("start tag in list :" + str(self.tag)) if tag == "a": for att in attrs: if att[0] == 'href': self.href = att[1] def handle_endtag(self, tag): if tag == "a" and len(self.tag) > 2 and self.tag[-2] == "div": print("in div, link txt is %s ." % self.txt) print("in div, link url is %s ." % self.href) if not self.href in readed_path: readed_path.add(self.href) lock.acquire() new_path.append(self.href) lock.release() # print("end tag in list :" + str(self.tag)) self.tag.pop(-1) def handle_data(self, data): if len(self.tag) >= 1 and self.tag[-1] == "a": self.txt = datadef LoadHtml(path, file_path): if len(file_path) == 0: file_path = "/" conn = http.client.HTTPConnection(path) try: conn.request("GET", file_path) response = conn.getresponse() print(response.status, response.reason, response.version) data = response.read().decode("utf-8") if response.status == 301: data = response.getheader("Location") lock.acquire() new_path.append(data) lock.release() data = "" #print(data) conn.close() return data except Exception as e: print(e.args)怎么设置文件的保存路径

最新推荐

recommend-type

“推荐系统”相关资源推荐

推荐了国内外对推荐系统的讲解相关资源
recommend-type

全渠道电商平台业务中台解决方案.pptx

全渠道电商平台业务中台解决方案.pptx
recommend-type

云计算企业私有云平台建设方案.pptx

云计算企业私有云平台建设方案.pptx
recommend-type

通过CNN卷积神经网络对盆栽识别-含图片数据集.zip

本代码是基于python pytorch环境安装的。 下载本代码后,有个requirement.txt文本,里面介绍了如何安装环境,环境需要自行配置。 或可直接参考下面博文进行环境安装。 https://blog.csdn.net/no_work/article/details/139246467 如果实在不会安装的,可以直接下载免安装环境包,有偿的哦 https://download.csdn.net/download/qq_34904125/89365780 安装好环境之后, 代码需要依次运行 01数据集文本生成制作.py 02深度学习模型训练.py 和03pyqt_ui界面.py 数据集文件夹存放了本次识别的各个类别图片。 本代码对数据集进行了预处理,包括通过在较短边增加灰边,使得图片变为正方形(如果图片原本就是正方形则不会增加灰边),和旋转角度,来扩增增强数据集, 运行01数据集文本制作.py文件,会就读取数据集下每个类别文件中的图片路径和对应的标签 运行02深度学习模型训练.py就会将txt文本中记录的训练集和验证集进行读取训练,训练好后会保存模型在本地
recommend-type

保险服务门店新年工作计划PPT.pptx

在保险服务门店新年工作计划PPT中,包含了五个核心模块:市场调研与目标设定、服务策略制定、营销与推广策略、门店形象与环境优化以及服务质量监控与提升。以下是每个模块的关键知识点: 1. **市场调研与目标设定** - **了解市场**:通过收集和分析当地保险市场的数据,包括产品种类、价格、市场需求趋势等,以便准确把握市场动态。 - **竞争对手分析**:研究竞争对手的产品特性、优势和劣势,以及市场份额,以进行精准定位和制定有针对性的竞争策略。 - **目标客户群体定义**:根据市场需求和竞争情况,明确服务对象,设定明确的服务目标,如销售额和客户满意度指标。 2. **服务策略制定** - **服务计划制定**:基于市场需求定制服务内容,如咨询、报价、理赔协助等,并规划服务时间表,保证服务流程的有序执行。 - **员工素质提升**:通过专业培训提升员工业务能力和服务意识,优化服务流程,提高服务效率。 - **服务环节管理**:细化服务流程,明确责任,确保服务质量和效率,强化各环节之间的衔接。 3. **营销与推广策略** - **节日营销活动**:根据节庆制定吸引人的活动方案,如新春送福、夏日促销,增加销售机会。 - **会员营销**:针对会员客户实施积分兑换、优惠券等策略,增强客户忠诚度。 4. **门店形象与环境优化** - **环境设计**:优化门店外观和内部布局,营造舒适、专业的服务氛围。 - **客户服务便利性**:简化服务手续和所需材料,提升客户的体验感。 5. **服务质量监控与提升** - **定期评估**:持续监控服务质量,发现问题后及时调整和改进,确保服务质量的持续提升。 - **流程改进**:根据评估结果不断优化服务流程,减少等待时间,提高客户满意度。 这份PPT旨在帮助保险服务门店在新的一年里制定出有针对性的工作计划,通过科学的策略和细致的执行,实现业绩增长和客户满意度的双重提升。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

MATLAB图像去噪最佳实践总结:经验分享与实用建议,提升去噪效果

![MATLAB图像去噪最佳实践总结:经验分享与实用建议,提升去噪效果](https://img-blog.csdnimg.cn/d3bd9b393741416db31ac80314e6292a.png) # 1. 图像去噪基础 图像去噪旨在从图像中去除噪声,提升图像质量。图像噪声通常由传感器、传输或处理过程中的干扰引起。了解图像噪声的类型和特性对于选择合适的去噪算法至关重要。 **1.1 噪声类型** * **高斯噪声:**具有正态分布的加性噪声,通常由传感器热噪声引起。 * **椒盐噪声:**随机分布的孤立像素,值要么为最大值(白色噪声),要么为最小值(黑色噪声)。 * **脉冲噪声
recommend-type

InputStream in = Resources.getResourceAsStream

`Resources.getResourceAsStream`是MyBatis框架中的一个方法,用于获取资源文件的输入流。它通常用于加载MyBatis配置文件或映射文件。 以下是一个示例代码,演示如何使用`Resources.getResourceAsStream`方法获取资源文件的输入流: ```java import org.apache.ibatis.io.Resources; import java.io.InputStream; public class Example { public static void main(String[] args) {
recommend-type

车辆安全工作计划PPT.pptx

"车辆安全工作计划PPT.pptx" 这篇文档主要围绕车辆安全工作计划展开,涵盖了多个关键领域,旨在提升车辆安全性能,降低交通事故发生率,以及加强驾驶员的安全教育和交通设施的完善。 首先,工作目标是确保车辆结构安全。这涉及到车辆设计和材料选择,以增强车辆的结构强度和耐久性,从而减少因结构问题导致的损坏和事故。同时,通过采用先进的电子控制和安全技术,提升车辆的主动和被动安全性能,例如防抱死刹车系统(ABS)、电子稳定程序(ESP)等,可以显著提高行驶安全性。 其次,工作内容强调了建立和完善车辆安全管理体系。这包括制定车辆安全管理制度,明确各级安全管理责任,以及确立安全管理的指导思想和基本原则。同时,需要建立安全管理体系,涵盖安全组织、安全制度、安全培训和安全检查等,确保安全管理工作的系统性和规范性。 再者,加强驾驶员安全培训是另一项重要任务。通过培训提高驾驶员的安全意识和技能水平,使他们更加重视安全行车,了解并遵守交通规则。培训内容不仅包括交通法规,还涉及安全驾驶技能和应急处置能力,以应对可能发生的突发情况。 此外,文档还提到了严格遵守交通规则的重要性。这需要通过宣传和执法来强化,以降低由于违反交通规则造成的交通事故。同时,优化道路交通设施,如改善交通标志、标线和信号灯,可以提高道路通行效率,进一步增强道路安全性。 在实际操作层面,工作计划中提到了车辆定期检查的必要性,包括对刹车、转向、悬挂、灯光、燃油和电器系统的检查,以及根据车辆使用情况制定检查计划。每次检查后应记录问题并及时处理,以确保车辆始终处于良好状态。 最后,建立车辆安全信息管理系统也是关键。通过对车辆事故和故障情况进行记录和分析,可以为安全管理提供数据支持,以便及时发现问题,预防潜在风险,并对事故进行有效处理和责任追究。 这份车辆安全工作计划全面覆盖了从车辆本身到驾驶员行为,再到道路环境的诸多方面,旨在构建一个全方位、多层次的车辆安全管理体系,以降低交通事故风险,保障道路交通安全。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依