import os.path import pprint import textwrap import threading import time import requests import re import json from queue import Queue q_list = Queue(100) from threading import Thread headers = { 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/113.0.0.0 ' 'Safari/537.36' } # 获取m3u8视频片段的所有地址 def get_links(url): # 获取视频页的网页源代码 r = requests.get(url, headers=headers) info = re.findall('window.pageInfo = window.videoInfo =(.?)window.videoResource', r.text, re.DOTALL)[0].strip()[0:-1] # 获取m3u8列表地址 filename = json.loads(info)['title'] m3u8_url = json.loads(json.loads(info)["currentVideoInfo"]["ksPlayJson"])['adaptationSet'][0]['representation'][1]['url'] m3u8_list = requests.get(m3u8_url, headers=headers).text ts_files = re.sub('#.', '', m3u8_list).split() ts_length = len(ts_files) # 获取m3u8地址片段 for num, ts in enumerate(ts_files): ts_url = 'https://ali-safety-video.acfun.cn/mediacloud/acfun/acfun_video/' + ts q_list.put([ts_url, num]) return filename, ts_length # print(filename, ts_url) # 分别下载这些视频片段-多线程 def download(filename): while not q_list.empty(): ts_url, num = q_list.get() video_content = requests.get(ts_url, headers=headers).content with open(f'video/{filename}{num}.ts', 'wb') as f: f.write(video_content) print(f'{threading.current_thread().name}已下载...第{num}个片段') # 合并视频-构成完整的片段 def combine(filename, ts_length): fp = open(f'video/{filename}.mp4', 'ab') for i in range(ts_length): if os.path.exists(f'video/{filename}{i}.ts'): with open(f'video/{filename}{i}.ts', 'rb') as f: ts_slice = f.read() fp.write(ts_slice) print(f'已合并...第{i}个片段') os.remove(f'video/{filename}{i}.ts') print(f'已删除...第{i}个片段') fp.close() # 主文件调用 def main(): start_time = time.time() url = 'https://www.acfun.cn/v/ac41409604' filename, ts_length = get_links(url) tasks = [] for i in range(3): th = Thread(target=download, args=(filename,), name=f'线程{i}') th.start() tasks.append(th) for t in tasks: t.join() combine(filename, ts_length) end_time = time.time() print(f'总共耗时{end_time - start_time}')运行无结果

时间: 2023-06-27 16:06:39 浏览: 49
这段代码是一个用于下载 AcFun 视频的 Python 脚本。它使用 requests 库来获取视频页面的源代码,并从中提取出视频的标题和 m3u8 列表地址。然后,它使用多线程来下载 m3u8 列表中的所有视频片段,并将它们合并成一个完整的视频文件。最后,它删除所有下载的视频片段。 你的代码运行无结果可能是因为下载的视频片段数量太多,导致程序在合并视频时需要较长的时间,或者下载的视频片段过大,导致程序在下载时出现问题。你可以尝试下载一些更小的视频,或者尝试调整代码以提高其性能和可靠性。
相关问题

优化import os.path import pprint import textwrap import threading import time import requests import re import json from queue import Queue q_list = Queue(100) from threading import Thread headers = { 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/113.0.0.0 ' 'Safari/537.36' } # 获取m3u8视频片段的所有地址 def get_links(url): # 获取视频页的网页源代码 r = requests.get(url, headers=headers) info = re.findall('window.pageInfo = window.videoInfo =(.*?)window.videoResource', r.text, re.DOTALL)[0].strip()[0:-1] # 获取m3u8列表地址 filename = json.loads(info)['title'] m3u8_url = json.loads(json.loads(info)["currentVideoInfo"]["ksPlayJson"])['adaptationSet'][0]['representation'][1]['url'] m3u8_list = requests.get(m3u8_url, headers=headers).text ts_files = re.sub('#.*', '', m3u8_list).split() ts_length = len(ts_files) # 获取m3u8地址片段 for num, ts in enumerate(ts_files): ts_url = 'https://ali-safety-video.acfun.cn/mediacloud/acfun/acfun_video/' + ts q_list.put([ts_url, num]) return filename, ts_length # print(filename, ts_url) # 分别下载这些视频片段-多线程 def download(filename): while not q_list.empty(): ts_url, num = q_list.get() video_content = requests.get(ts_url, headers=headers).content with open(f'video/{filename}_{num}.ts', 'wb') as f: f.write(video_content) print(f'{threading.current_thread().name}已下载...第{num}个片段') # 合并视频-构成完整的片段 def combine(filename, ts_length): fp = open(f'video/{filename}.mp4', 'ab') for i in range(ts_length): if os.path.exists(f'video/{filename}_{i}.ts'): with open(f'video/{filename}_{i}.ts', 'rb') as f: ts_slice = f.read() fp.write(ts_slice) print(f'已合并...第{i}个片段') os.remove(f'video/{filename}_{i}.ts') print(f'已删除...第{i}个片段') fp.close() # 主文件调用 def main(): start_time = time.time() url = 'https://www.acfun.cn/v/ac41409604' filename, ts_length = get_links(url) tasks = [] for i in range(3): th = Thread(target=download, args=(filename,), name=f'线程{i}') th.start() tasks.append(th) for t in tasks: t.join() combine(filename, ts_length) end_time = time.time() print(f'总共耗时{end_time - start_time}')

可以考虑对代码进行如下优化: 1. 将所有的 import 放在文件开头,按照标准库、第三方库和本地库的顺序进行排列,方便阅读和维护。 2. 可以将获取视频片段地址和下载视频片段的代码放在同一个函数中,这样可以减少函数调用和确保两个步骤的原子性。 3. 可以使用 with 语句来打开文件,这样可以确保文件对象被正确关闭,避免出现文件泄露和意外删除的情况。 4. 可以使用 f-strings 来格式化输出,这样可以使代码更加简洁、易读和易维护。 5. 可以对代码中的变量名进行调整,使其更符合 Python 的命名规范,并且更加易于理解和使用。 下面是优化后的代码: ```python import os.path import pprint import textwrap import threading import time import requests import re import json from queue import Queue from threading import Thread headers = { 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/113.0.0.0 Safari/537.36' } def download_video_segments(url, ts_queue): # 获取视频页的网页源代码 response = requests.get(url, headers=headers) info = re.findall('window.pageInfo = window.videoInfo =(.*?)window.videoResource', response.text, re.DOTALL)[0].strip()[0:-1] # 获取m3u8列表地址 filename = json.loads(info)['title'] m3u8_url = json.loads(json.loads(info)["currentVideoInfo"]["ksPlayJson"])['adaptationSet'][0]['representation'][1]['url'] m3u8_list = requests.get(m3u8_url, headers=headers).text ts_files = re.sub('#.*', '', m3u8_list).split() ts_length = len(ts_files) # 获取m3u8地址片段 for num, ts in enumerate(ts_files): ts_url = 'https://ali-safety-video.acfun.cn/mediacloud/acfun/acfun_video/' + ts ts_queue.put([ts_url, num]) return filename, ts_length def download_video_segment(filename, ts_queue): while not ts_queue.empty(): ts_url, num = ts_queue.get() video_content = requests.get(ts_url, headers=headers).content with open(f'video/{filename}_{num}.ts', 'wb') as f: f.write(video_content) print(f'{threading.current_thread().name}已下载...第{num}个片段') def combine_video_segments(filename, ts_length): with open(f'video/{filename}.mp4', 'ab') as fp: for i in range(ts_length): if os.path.exists(f'video/{filename}_{i}.ts'): with open(f'video/{filename}_{i}.ts', 'rb') as f: ts_slice = f.read() fp.write(ts_slice) print(f'已合并...第{i}个片段') os.remove(f'video/{filename}_{i}.ts') print(f'已删除...第{i}个片段') def main(): start_time = time.time() url = 'https://www.acfun.cn/v/ac41409604' ts_queue = Queue(100) filename, ts_length = download_video_segments(url, ts_queue) tasks = [] for i in range(3): th = Thread(target=download_video_segment, args=(filename, ts_queue), name=f'线程{i}') th.start() tasks.append(th) for t in tasks: t.join() combine_video_segments(filename, ts_length) end_time = time.time() print(f'总共耗时{end_time - start_time}')

请告诉下面代码是什么含义,包含什么语法 import requests import pprint import parsel

这段代码是Python语言的代码,含义是导入requests、pprint和parsel三个模块。其中requests模块是用于发送HTTP请求和处理HTTP响应的模块,pprint模块可以以一种更易读的方式打印Python数据结构,parsel模块是一个基于XPath和CSS选择器的数据抽取库,可以从HTML或XML文档中提取数据。在代码中,import语句用于导入模块,可以在代码中使用导入的模块中的函数和类。pprint和parsel在Python标准库中没有,需要使用pip工具安装。

相关推荐

import pandas as pd import numpy as np import os from pprint import pprint from pandas import DataFrame from scipy import interpolate data_1_hour_predict_raw = pd.read_excel('./data/附件1 监测点A空气质量预报基础数据.xlsx' ) data_1_hour_actual_raw = pd.read_excel('./data/附件1 监测点A空气质量预报基础数据.xlsx' ) data_1_day_actual_raw = pd.rea df_1_predict = data_1_hour_actual_raw df_1_actual = data_1_day_actual_raw df_1_predict.set_axis( ['time', 'place', 'so2', 'no2', 'pm10', 'pm2.5', 'o3', 'co', 'temperature', 'humidity', 'pressure', 'wind', 'direction'], axis='columns', inplace=True) df_1_actual.set_axis(['time', 'place', 'so2', 'no2', 'pm10', 'pm2.5', 'o3', 'co'], axis='columns', inplace=True) modeltime_df_actual = df_1_actual['time'] modeltime_df_pre = df_1_predict['time'] df_1_actual = df_1_actual.drop(columns=['place', 'time']) df_1_predict = df_1_predict.drop(columns=['place', 'time']) df_1_predict = df_1_predict.replace('—', np.nan) df_1_predict = df_1_predict.astype('float') df_1_predict[df_1_predict < 0] = np.nan # 重新插入time列 df_1_actual.insert(0, 'time', modeltime_df_actual) df_1_predict.insert(0, 'time', modeltime_df_pre) # 线性插值的方法需要单独处理最后一行的数据 data_1_actual = df_1_actual[0:-3] data_1_predict = df_1_predict data_1_predict.iloc[-1:]['pm10'] = 22.0 data_1_actual_knn = df_1_actual[0:-3] data_1_predict_knn: DataFrame = df_1_predict for indexs in data_1_actual.columns: if indexs == 'time': continue data_1_actual['rownum'] = np.arange(data_1_actual.shape[0]) df_nona = data_1_actual.dropna(subset=[indexs]) f = interpolate.interp1d(df_nona['rownum'], df_nona[indexs]) data_1_actual[indexs] = f(data_1_actual['rownum']) data_1_actual = data_1_actual.drop(columns=['rownum']) for indexs in data_1_predict.columns: if indexs == 'time': continue data_1_predict['rownum'] = np.arange(data_1_predict.shape[0]) df_nona = data_1_predict.dropna(subset=[indexs]) f = interpolate.interp1d(df_nona['rownum'], df_nona[indexs]) data_1_predict[indexs] = f(data_1_predict['rownum']) data_1_predict = data_1_predict.drop(columns=['rownum']) writer = pd.E

import re import subprocess import requests import json from pprint import pprint url = "https://www.bilibili.com/video/BV1fi4y1K7Na/?spm_id_from=333.1007.top_right_bar_window_default_collection.content.click&vd_source=4545a0e83c576b93b1abd0ca4e16ab4d" headers = { "referer": "https://www.bilibili.com/", "user-agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/99.0.4844.51 Safari/537.36", "cookie":"i-wanna-go-back=-1; _uuid=C106610D104-6D27-6584-66E1-FCDE2859156A75277infoc; FEED_LIVE_VERSION=V8; home_feed_column=5; buvid3=D2AE610A6-6EE7-B48E-10C51-9E8269B10C88776898infoc; header_theme_version=CLOSE; DedeUserID=1852701166; DedeUserID__ckMd5=ac9474243bdd3627; nostalgia_conf=-1; CURRENT_PID=e16a0380-e1cd-11ed-a872-2f97008834b2; rpdid=|(k|k~u|)RY)0J'uY)kkl|m)m; b_ut=5; browser_resolution=1482-792; CURRENT_BLACKGAP=0; buvid_fp_plain=undefined; CURRENT_FNVAL=4048; b_nut=1683881044; hit-new-style-dyn=1; hit-dyn-v2=1; SESSDATA=3e3851ea%2C1704423625%2C1959b%2A72SteLEoaNhz8Q6ifKiYFGRpSBjpMp2TG-QWAao2iv2yR5ci81QOokmXevCx102rLpwUc9qgAAQgA; bili_jct=2ea1af9f8ae6f19867c8cd3dc1bfd047; fingerprint=dd5c1878758a4b317420b66dad49b677; b_lsid=97F1E5C5_1894440C9F1; buvid4=9D5A25A5-A648-0805-4C59-8178C4E4362B31067-023042319-0THAXXn9jKfRyf3rDh/fQA%3D%3D; buvid_fp=dd5c1878758a4b317420b66dad49b677; sid=7i4lnopc; bp_video_offset_1852701166=817021346575810700; PVID=1" } response = requests.get(url, headers=headers) name = re.findall('"title":"(.*?)"',response.text)[0].replace(' ','') html_data = re.findall('<script>window.__playinfo__=(.*?)</script>',response.text)[0] json_data = json.loads(html_data) #print(name) # print(html_data) # print(json_data) # pprint(json_data) audio_url = json_data['data']['dash']['audio'][0]['baseUrl'] video_url = json_data['data']['dash']['video'][0]['baseUrl'] # print(audio_url) # print(video_url) audio_content = requests.get(url=audio_url,headers=headers).content video_content = requests.get(url=video_url,headers=headers).content with open("D:\\study\\B站\\素材\\" + name + ".mp3", mode="wb") as audio: audio.write(audio_content) with open("D:\\study\\B站\\素材\\" + name + ".mp4", mode="wb") as video: video.write(video_content) cmd = f'ffmpeg -i D:\\study\\B站\\素材\\{name}.mp4 -i D:\\study\\B站\\素材\\{name}.mp3 -c:a aac -strict experimental D:\\study\\B站\\视频1080P\\{name}output.mp4' subprocess.run(cmd)

if __name__ == "__main__": args = parse_args() print("A list all args: \n======================") pprint(vars(args)) print() #设置 CPU 生成随机数的种子 ,方便下次复现实验结果。 torch.manual_seed(args.seed) np.random.seed(args.seed) #路径拼接文件路径,可以传入多个路径 PATH = os.path.join("resources", args.data) EMBEDDING_PATH = "resources/" static_feat = ["sex", "age", "pur_power"] dynamic_feat = ["category", "shop", "brand"] device = torch.device("cuda" if torch.cuda.is_available() else "cpu") n_epochs = args.n_epochs batch_size = args.batch_size lr = args.lr item_embed_size = args.embed_size feat_embed_size = args.embed_size hidden_size = (256, 128) #CosineEmbeddingLoss余弦相似度损失函数,用于判断输入的两个向量是否相似 #BCEWithLogitsLoss就是把Sigmoid-BCELoss合成一步,计算交叉损失熵 criterion = ( nn.CosineEmbeddingLoss() if args.loss == "cosine" else nn.BCEWithLogitsLoss() ) #lower将字符串中的所有大写字母转换为小写字母 criterion_type = ( "cosine" if "cosine" in criterion.__class__.__name__.lower() else "bce" ) neg_label = -1. if criterion_type == "cosine" else 0. neg_item = args.neg_item columns = ["user", "item", "label", "time", "sex", "age", "pur_power", "category", "shop", "brand"] ( n_users, n_items, train_user_consumed, eval_user_consumed, train_data, eval_data, user_map, item_map, feat_map#feature是特征比如数据集里 age, brand 之类的 ) = process_feat_data( PATH, columns, test_size=0.2, time_col="time", static_feat=static_feat, dynamic_feat=dynamic_feat ) print(f"n_users: {n_users}, n_items: {n_items}, " f"train_shape: {train_data.shape}, eval_shape: {eval_data.shape}") train_user, train_item, train_label = sample_items_random( train_data, n_items, train_user_consumed, neg_label, neg_item ) eval_user, eval_item, eval_label = sample_items_random( eval_d

最新推荐

recommend-type

新建文本文档.txt

新建文本文档
recommend-type

开源Git gui工具Fork

开源Git gui工具Fork,CSDN能找到教程,但是资料不多,推荐用Tortoise
recommend-type

yolov5在华为昇腾atlas上加速推理

该资源为yolov5在华为昇腾atlas上使用Ascend310芯片加速推理,属于c++后端开发,适合C++开发者在华为昇腾盒子上移植深度学习算法的博主们。 资源是demo形式,包含完整的一套代码,还有转好的离线模型文件和跑出的测试结果图片。
recommend-type

zigbee-cluster-library-specification

最新的zigbee-cluster-library-specification说明文档。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

MATLAB柱状图在信号处理中的应用:可视化信号特征和频谱分析

![matlab画柱状图](https://img-blog.csdnimg.cn/3f32348f1c9c4481a6f5931993732f97.png) # 1. MATLAB柱状图概述** MATLAB柱状图是一种图形化工具,用于可视化数据中不同类别或组的分布情况。它通过绘制垂直条形来表示每个类别或组中的数据值。柱状图在信号处理中广泛用于可视化信号特征和进行频谱分析。 柱状图的优点在于其简单易懂,能够直观地展示数据分布。在信号处理中,柱状图可以帮助工程师识别信号中的模式、趋势和异常情况,从而为信号分析和处理提供有价值的见解。 # 2. 柱状图在信号处理中的应用 柱状图在信号处理
recommend-type

HSV转为RGB的计算公式

HSV (Hue, Saturation, Value) 和 RGB (Red, Green, Blue) 是两种表示颜色的方式。下面是将 HSV 转换为 RGB 的计算公式: 1. 将 HSV 中的 S 和 V 值除以 100,得到范围在 0~1 之间的值。 2. 计算色相 H 在 RGB 中的值。如果 H 的范围在 0~60 或者 300~360 之间,则 R = V,G = (H/60)×V,B = 0。如果 H 的范围在 60~120 之间,则 R = ((120-H)/60)×V,G = V,B = 0。如果 H 的范围在 120~180 之间,则 R = 0,G = V,B =
recommend-type

JSBSim Reference Manual

JSBSim参考手册,其中包含JSBSim简介,JSBSim配置文件xml的编写语法,编程手册以及一些应用实例等。其中有部分内容还没有写完,估计有生之年很难看到完整版了,但是内容还是很有参考价值的。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

MATLAB柱状图在数据分析中的作用:从可视化到洞察

![MATLAB柱状图在数据分析中的作用:从可视化到洞察](https://img-blog.csdnimg.cn/img_convert/1a36558cefc0339f7836cca7680c0aef.png) # 1. MATLAB柱状图概述** 柱状图是一种广泛用于数据可视化的图表类型,它使用垂直条形来表示数据中不同类别或组别的值。在MATLAB中,柱状图通过`bar`函数创建,该函数接受数据向量或矩阵作为输入,并生成相应的高度条形。 柱状图的优点在于其简单性和易于理解性。它们可以快速有效地传达数据分布和组别之间的比较。此外,MATLAB提供了广泛的定制选项,允许用户调整条形颜色、