def read(data_path): data=['label'+'\t'+'text_a\n'] with open(data_path, 'r', encoding='utf-8-sig') as f: lines=f.readlines() # 三行为一条记录 for i in range(int(len(lines)/3)): # 读取第一行为内容 word = lines[i*3].strip('\n') # 读取第三行为标签 label = lines[i*3+2].strip('\n') data.append(label+'\t'+word+'\n') i=i+1 return data with open('formated_train.txt','w') as f: f.writelines(read('train.txt')) with open('formated_test.txt','w') as f: f.writelines(read('test.txt'))和from paddlenlp.datasets import load_dataset def read(data_path): with open(data_path, 'r', encoding='utf-8') as f: # 跳过列名 next(f) for line in f: label, word= line.strip('\n').split('\t') yield {'text': word, 'label': label} # data_path为read()方法的参数 train_ds = load_dataset(read, data_path='formated_train.txt',lazy=False) test_ds = load_dataset(read, data_path='formated_test.txt',lazy=False) dev_ds = load_dataset(read, data_path='formated_test.txt',lazy=False)分别干了什么

时间: 2023-12-29 14:03:56 浏览: 22
这段代码定义了两个函数 `read` 和 `load_dataset` 用于处理和加载数据集。 `read` 函数的作用是将原始数据集文件进行处理,转换成带有标签和文本的数据集格式。其中,`data_path` 参数指定了原始数据集文件的路径。函数会将处理后的数据集以字典的形式逐条 yield 出来。 第一段代码中的 `read` 函数是将原始数据集文件按照指定格式处理,并将处理结果写入到新的文件中。具体实现过程是,首先将文件按行读取,每读取三行就将其中的第一行和第三行分别作为文本和标签。然后将文本和标签按照指定格式拼接成一条记录,最后将所有记录写入到新的文件中。 `load_dataset` 函数利用 `read` 函数将处理后的数据集文件加载到内存中,并返回一个数据集对象。其中,`data_path` 参数指定了数据集文件的路径,`lazy` 参数指定是否启用懒加载模式。这里 `lazy` 参数被设置为 `False`,表示不启用懒加载模式,即一次性将整个数据集加载到内存中。
相关问题

from torch.utils.data import Dataset from torch.utils.data.dataset import T_co import os import cv2 as cv def read_label(path): file = open(path, "r", encoding='utf-8') label = file.readline() file.close() return label class MyDataset(Dataset): def _init__(self, train_path): self.train_path = train_path self.image_path = os.path.join(train_path, 'image') self.label_path = os.path.join(train_path, "label") self.image_path_list = os.listdir(self.image_path) def __getitem__(self, index) -> T_co: image_name = self.image_path_list[index] image_path = os.path.join(self.image_path, image_name) img = cv.imread(image_path) label_name = 'txt'.join(image_name.rsplit(image_name.split('. ')[-1], 1)) label_path = os.path.join(self.label_path, label_name) label = read_label(label_path) return img,label def __len__(self): return Len(self.image_path_list) my_dataset = MyDataset("dataset/train") data_index = 100 img, label = my_dataset[data_index] cv.imshow(label+ str(data_index)+str(Len(my_dataset)) + ')', img) cv.waitKey(0)详解这段代码

这段代码定义了一个自定义的 PyTorch 数据集类 MyDataset,用于加载训练数据集中的图像和标签。其中: - `_init__` 方法初始化了数据集的路径和图像文件名列表; - `__getitem__` 方法按照给定的索引 index,读取对应的图像和标签,并返回它们的元组; - `__len__` 方法返回数据集中图像的数量。 具体来说,这个数据集类假设训练数据集中的图像文件都存储在 "dataset/train/image" 目录下,而对应的标签文件都存储在 "dataset/train/label" 目录下,且标签文件的文件名和对应的图像文件名一致,只是后缀名不同(图像文件的后缀名为图片格式,标签文件的后缀名为 "txt")。标签文件中只包含一个文本行,表示对应图像的标签。 在这个数据集类中,`read_label` 函数用于读取标签文件的内容,`cv.imread` 函数用于读取图像文件的内容,`os.path.join` 函数用于拼接路径,`os.listdir` 函数用于列出目录下的文件名列表。 最后,这段代码创建了一个 MyDataset 类的实例 my_dataset,用于加载 "dataset/train" 目录下的训练数据集。然后它从数据集中取出第 100 个样本,显示它的图像和标签。

from paddlenlp.datasets import load_dataset def read(data_path): with open(data_path, 'r', encoding='utf-8') as f: # 跳过列名 next(f) for line in f: label, word= line.strip('\n').split('\t') yield {'text': word, 'label': label} # data_path为read()方法的参数 train_ds = load_dataset(read, data_path='formated_train.txt',lazy=False) test_ds = load_dataset(read, data_path='formated_test.txt',lazy=False) dev_ds = load_dataset(read, data_path='formated_test.txt',lazy=False)解读

这段代码使用 PaddleNLP 提供的 `load_dataset` 函数来加载数据集,并且通过实现 `read` 函数来读取数据文件。在 `read` 函数中,首先使用 `open` 函数打开指定的文件,然后通过 `next(f)` 跳过文件的第一行(通常是列名),接着使用 `strip` 和 `split` 函数分别将每一行的文本和标签读取出来,并将它们组合成一个 Python 字典作为数据集的一个样本。最后,通过调用 `load_dataset` 函数,并将 `read` 函数和数据文件的路径传递给它,可以得到训练集、测试集和验证集的 Paddle Dataset 对象。其中,`lazy=False` 表示在加载数据集时立即读取数据并将其缓存到内存中,而不是在访问数据时才逐个读取,这样可以提高数据加载效率。

相关推荐

import os.path import gzip import pickle import os import numpy as np import urllib url_base = 'http://yann.lecun.com/exdb/mnist/' key_file = { 'train_img':'train-images-idx3-ubyte.gz', 'train_label':'train-labels-idx1-ubyte.gz', 'test_img':'t10k-images-idx3-ubyte.gz', 'test_label':'t10k-labels-idx1-ubyte.gz' } dataset_dir = os.path.dirname(os.path.abspath("_file_")) save_file = dataset_dir + "/mnist.pkl" train_num=60000 test_num=10000 img_dim=(1,28,28) img_size=784 def _download(file_name): file_path = dataset_dir+"/"+file_name if os.path.exists(file_path): return print("Downloading"+file_name+" ... ") urllib.request.urlretrieve(url_base + file_name,file_path) print("Done") def download_mnist(): for v in key_file.values(): _download(v) def _load_label(file_name): file_path = dataset_dir+ "/" +file_name print("Converting" + file_name +"to Numpy Array ...") with gzip.open(file_path,'rb') as f: labels = np.frombuffer(f.read(),np.uint8,offset=8) print("Done") return labels def _load_img(file_name): file_path=dataset_dir+"/"+file_name print("Converting"+file_name+"to Numpy Array ...") with gzip.open(file_path,'rb') as f: data = np.frombuffer(f.read(),np.uint8,offset=16) data = data.reshape(-1,img_size) print("Done") return data def _convert_numpy(): dataset = {} dataset['train_img'] = _load_img(key_file['train_img']) dataset['train_label'] = _load_label(key_file['train_label']) dataset['test_img'] = _load_img(key_file['test_img']) dataset['test_label'] = _load_label(key_file['test_label']) return dataset def init_mnist(): download_mnist() dataset = _convert_numpy() print("Creating pickle file ...") with open(save_file,'wb') as f: pickle.dump(dataset,f,-1) print("Done") if __name__ =='__main__': init_mnist()

请修改优化以下代码 import os import struct import pandas as pd # 常量定义 LC1_FILE_PATH = 'D:\\sz000001.lc1' 5_FILE_PATH = 'D:\\sz000001.lc5' BYTES_PER_RECORD = 32 SECONDS_PER_MINUTE = 60 MINUTES_PER_HOUR = 60 HOURS_PER_DAY = 24 SECONDS_PER_DAY = SECONDS_PER_MINUTE * MINUTES_PER_HOUR * HOURS_PER_DAY SECONDS_PER_YEAR = SECONDS_PER_DAY * 365 START_YEAR = 2004 def read_lc_file(file_path): """读取lc文件,返回包含数据的DataFrame对象""" with open(file_path, 'rb') as f: buf = f.read() num = len(buf) // BYTES_PER_RECORD dl = [] for i in range(num): a = struct.unpack('hhfffffii', buf[i*BYTES_PER_RECORD:(i+1)*BYTES_PER_RECORD]) date_str = format_date(a[0]) time_str = format_time(a[1]) dl.append([date_str, time_str, a[2], a[3], a[4], a[5], a[6], a[7]]) df = pd.DataFrame(dl, columns=['date', 'time', 'open', 'high', 'low', 'close', 'amount', 'volume']) return df def format_date(date_int): """将日期整数格式化为字符串""" year = START_YEAR + date_int // 2048 month = (date_int % 2048) // 100 day = (date_int % 2048) % 100 return '{:04d}-{:02d}-{:02d}'.format(year, month, day) def format_time(time_int): """将时间整数格式化为字符串""" hour = time_int // 60 minute = time_int % 60 return '{:02d}:{:02d}:00'.format(hour, minute) # 将解析后的数据存入同一路径相同文件名的CSV格式文件中 def save_to_csv(df, file_path, is_lc1): if is_lc1: interval = '1M' else: interval = '5M' csv_file_path = os.path.splitext(file_path)[0] + '_' + interval + '.csv' df.to_csv(csv_file_path, index=False) # 读取lc1文件 df1 = read_lc_file(LC1_FILE_PATH) print(df1) # 读取lc5文件 df5 = read_lc_file(LC5_FILE_PATH) print(df5) # 调用save_to_csv函数并将解析后的数据保存为CSV文件 save_to_csv(df1, LC1_FILE_PATH, True) save_to_csv(df5, LC5_FILE_PATH, False) # 以lc1和lc5的文件名分别保存五分钟的数据 file_name = os.path.splitext(os.path.basename(LC1_FILE_PATH))[0] df1_5M = df1.resample('5T', label='right', closed='right').agg({'open': 'first', 'high': 'max', 'low': 'min', 'close': 'last', 'amount': 'sum', 'volume': 'sum'}) save_to_csv(df1_5M, LC1_FILE_PATH, False) file_name = os.path.splitext(os.path.basename(LC5_FILE_PATH))[0] df5_5M = df5.resample('5T', label='right', closed='right').agg({'open': 'first', 'high': 'max', 'low': 'min', 'close': 'last', 'amount': 'sum', 'volume': 'sum'}) save_to_csv(df5_5M, LC5_FILE_PATH, False)

X_train,T_train=idx2numpy.convert_from_file('emnist/emnist-letters-train-images-idx3-ubyte'),idx2numpy.convert_from_file('emnist/emnist-letters-train-labels-idx1-ubyte')转化为相同形式train_num = 60000 test_num = 10000 img_dim = (1, 28, 28) img_size = 784 def _download(file_name): file_path = dataset_dir + "/" + file_name if os.path.exists(file_path): return print("Downloading " + file_name + " ... ") urllib.request.urlretrieve(url_base + file_name, file_path) print("Done") def download_mnist(): for v in key_file.values(): _download(v) def _load_label(file_name): file_path = dataset_dir + "/" + file_name print("Converting " + file_name + " to NumPy Array ...") with gzip.open(file_path, 'rb') as f: labels = np.frombuffer(f.read(), np.uint8, offset=8) print("Done") return labels def _load_img(file_name): file_path = dataset_dir + "/" + file_name print("Converting " + file_name + " to NumPy Array ...") with gzip.open(file_path, 'rb') as f: data = np.frombuffer(f.read(), np.uint8, offset=16) data = data.reshape(-1, img_size) print("Done") return data def _convert_numpy(): dataset = {} dataset['train_img'] = _load_img(key_file['train_img']) dataset['train_label'] = _load_label(key_file['train_label']) dataset['test_img'] = _load_img(key_file['test_img']) dataset['test_label'] = _load_label(key_file['test_label']) return dataset def init_mnist(): download_mnist() dataset = _convert_numpy() print("Creating pickle file ...") with open(save_file, 'wb') as f: pickle.dump(dataset, f, -1) print("Done!") def _change_one_hot_label(X): T = np.zeros((X.size, 10)) for idx, row in enumerate(T): row[X[idx]] = 1 return T def load_mnist(normalize=True, flatten=True, one_hot_label=False): """读入MNIST数据集 Parameters ---------- normalize : 将图像的像素值正规化为0.0~1.0 one_hot_label : one_hot_label为True的情况下,标签作为one-hot数组返回 one-hot数组是指[0,0,1,0,0,0,0,0,0,0]这样的数组 flatten : 是否将图像展开为一维数组 Returns ------- (训练图像, 训练标签), (测试图像, 测试标签) """ if not os.path.exists(save_file): init_mnist() with open(save_file, 'rb') as f: dataset = pickle.load(f) if normalize: for key in ('train_img', 'test_img'): dataset[key] = dataset[key].astype(np.float32) dataset[key] /= 255.0 if one_hot_label: dataset['train_label'] = _change_one_hot_label(dataset['train_label']) dataset['test_label'] = _change_one_hot_label(dataset['test_label']) if not flatten: for key in ('train_img', 'test_img'): dataset[key] = dataset[key].reshape(-1, 1, 28, 28) return (dataset['train_img'], dataset['train_label']), (dataset['test_img'], dataset['test_label']) if name == 'main': init_mnist()模仿这段代码将获取同样形式

import tkinter as tk import pandas as pd import matplotlib.pyplot as plt from matplotlib.backends.backend_tkagg import FigureCanvasTkAgg import os class ExcelPlotter(tk.Frame): def init(self, master=None): super().init(master) self.master = master self.master.title("图方便") self.file_label = tk.Label(master=self, text="Excel File Path:") self.file_label.grid(row=0, column=0, sticky="w") self.file_entry = tk.Entry(master=self) self.file_entry.grid(row=0, column=1, columnspan=2, sticky="we") self.file_button = tk.Button(master=self, text="Open", command=self.open_file) self.file_button.grid(row=0, column=3, sticky="e") self.plot_button = tk.Button(master=self, text="Plot", command=self.plot_data) self.plot_button.grid(row=1, column=2, sticky="we") self.name_label = tk.Label(master=self, text="Out Image Name:") self.name_label.grid(row=2, column=0, sticky="w") self.name_entry = tk.Entry(master=self) self.name_entry.grid(row=2, column=1, columnspan=2, sticky="we") self.save_button = tk.Button(master=self, text="Save", command=self.save_image) self.save_button.grid(row=2, column=3, sticky="e") self.figure = plt.figure(figsize=(5, 4), dpi=150) self.canvas = FigureCanvasTkAgg(self.figure, master=self) self.canvas.get_tk_widget().grid(row=4, column=0, columnspan=4, sticky="we") self.pack() def open_file(self): file_path = tk.filedialog.askopenfilename(filetypes=[("Excel Files", "*.xls")]) self.file_entry.delete(0, tk.END) self.file_entry.insert(tk.END, file_path) def plot_data(self): file_path = self.file_entry.get() if os.path.exists(file_path): data = pd.read_excel(file_path) plt.plot(data['波长(nm)'], data['吸光度'], 'k') plt.xlim(300, 1000) plt.xlabel('Wavelength(nm)', fontsize=16) plt.ylabel('Abs.', fontsize=16) plt.gcf().subplots_adjust(left=0.13, top=0.91, bottom=0.16) plt.savefig('Last Fig', dpi=1000) plt.show() def save_image(self): if self.figure: file_path = tk.filedialog.asksaveasfilename(defaultextension=".png") if file_path: self.figure.savefig(file_path) root = tk.Tk() app = ExcelPlotter(master=root) app.mainloop()帮我增加一个删除当前图像的功能

import os import random import time from fnmatch import fnmatch import pygame import tkinter as tk from tkinter import * import wave import threading import tkinter import tkinter.filedialog import tkinter.messagebox import pyaudio root = tk.Tk() root.geometry("450x200+374+182") root.title("英语单词") english1 = "开始" w = Label(root, font=('times', 20, 'bold'), text=english1) w.pack() timer_running = False def word(): path = "D:\MY python\English" lists = os.listdir(path) english = (random.choice(lists)) global english1 english1 = english.strip(".wav") time.sleep(3) basedir = r"D:\MY python\English" for root, dirs, files in os.walk(basedir): for file in files: english3 = os.path.join(root, file) if fnmatch(file, f"{english1}*.wav"): pygame.mixer.init() pygame.mixer.music.load(english3) pygame.mixer.music.play() w.configure(text=f"{english1}") w.after(100, word) fileName = None allowRecording = False CHUNK_SIZE = 1024 CHANNELS = 2 FORMAT = pyaudio.paInt16 RATE = 44100 def record(): global fileName p = pyaudio.PyAudio() stream = p.open(format=FORMAT, channels=CHANNELS, rate=RATE, input=True, frames_per_buffer=CHUNK_SIZE) wf = wave.open(fileName, 'wb') wf.setnchannels(CHANNELS) wf.setsampwidth(p.get_sample_size(FORMAT)) wf.setframerate(RATE) while allowRecording: data = stream.read(CHUNK_SIZE) wf.writeframes(data) wf.close() stream.stop_stream() stream.close() p.terminate() fileName = None def start(): global allowRecording, fileName fileName = tkinter.filedialog.asksaveasfilename(filetypes=[('未压缩波形文件', '*.wav')]) if not fileName: return if not fileName.endswith('.wav'): fileName = fileName + '.wav' allowRecording = True start_timer() lbStatus['text'] = '正在录音中...' threading.Thread(target=record).start() def stop(): global allowRecording allowRecording = False lbStatus['text'] = '录音已结束' stop_timer() def closeWindow(): if allowRecording: tkinter.messagebox.showerror('Recording', 'Please stop recording before close the window.') return root.destroy() def tick(): global sec sec += 1 time['text'] = sec # Take advantage of the after method of the Label if timer_running: time.after(1000, tick) def start_timer(): global timer_running timer_running = True tick() def stop_timer(): global timer_running, sec timer_running = False sec = 0 time['text'] = sec button = tk.Button(text="开始", command=word) button.pack() btnStart = tkinter.Button(root, text='开始录音', command=start) btnStart.pack() btnStop = tkinter.Button(root, text='结束录音', command=stop) btnStop.pack() lbStatus = tkinter.Label(root, text='录音已准备', anchor='w', fg='green') lbStatus.pack() root.protocol('WM_DELETE_WINDOW', closeWindow) time = Label(root, fg='green') time.pack() root.mainloop()

import tensorflow as tf import numpy as np import tkinter as tk from tkinter import filedialog import time import pandas as pd import stock_predict as pred def creat_windows(): win = tk.Tk() # 创建窗口 sw = win.winfo_screenwidth() sh = win.winfo_screenheight() ww, wh = 800, 450 x, y = (sw - ww) / 2, (sh - wh) / 2 win.geometry("%dx%d+%d+%d" % (ww, wh, x, y - 40)) # 居中放置窗口 win.title('LSTM股票预测') # 窗口命名 f_open =open('dataset_2.csv') canvas = tk.Label(win) canvas.pack() var = tk.StringVar() # 创建变量文字 var.set('选择数据集') tk.Label(win, textvariable=var, bg='#C1FFC1', font=('宋体', 21), width=20, height=2).pack() tk.Button(win, text='选择数据集', width=20, height=2, bg='#FF8C00', command=lambda: getdata(var, canvas), font=('圆体', 10)).pack() canvas = tk.Label(win) L1 = tk.Label(win, text="选择你需要的 列(请用空格隔开,从0开始)") L1.pack() E1 = tk.Entry(win, bd=5) E1.pack() button1 = tk.Button(win, text="提交", command=lambda: getLable(E1)) button1.pack() canvas.pack() win.mainloop() def getLable(E1): string = E1.get() print(string) gettraindata(string) def getdata(var, canvas): global file_path file_path = filedialog.askopenfilename() var.set("注,最后一个为label") # 读取文件第一行标签 with open(file_path, 'r', encoding='gb2312') as f: # with open(file_path, 'r', encoding='utf-8') as f: lines = f.readlines() # 读取所有行 data2 = lines[0] print() canvas.configure(text=data2) canvas.text = data2 def gettraindata(string): f_open = open(file_path) df = pd.read_csv(f_open) # 读入股票数据 list = string.split() print(list) x = len(list) index=[] # data = df.iloc[:, [1,2,3]].values # 取第3-10列 (2:10从2开始到9) for i in range(x): q = int(list[i]) index.append(q) global data data = df.iloc[:, index].values print(data) main(data) def main(data): pred.LSTMtest(data) var.set("预测的结果是:" + answer) if __name__ == "__main__": creat_windows()这个代码能实现什么功能

这是对单个文件进行预测“import os import json import torch from PIL import Image from torchvision import transforms import matplotlib.pyplot as plt from model import convnext_tiny as create_model def main(): device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu") print(f"using {device} device.") num_classes = 5 img_size = 224 data_transform = transforms.Compose( [transforms.Resize(int(img_size * 1.14)), transforms.CenterCrop(img_size), transforms.ToTensor(), transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])]) # load image img_path = "../tulip.jpg" assert os.path.exists(img_path), "file: '{}' dose not exist.".format(img_path) img = Image.open(img_path) plt.imshow(img) # [N, C, H, W] img = data_transform(img) # expand batch dimension img = torch.unsqueeze(img, dim=0) # read class_indict json_path = './class_indices.json' assert os.path.exists(json_path), "file: '{}' dose not exist.".format(json_path) with open(json_path, "r") as f: class_indict = json.load(f) # create model model = create_model(num_classes=num_classes).to(device) # load model weights model_weight_path = "./weights/best_model.pth" model.load_state_dict(torch.load(model_weight_path, map_location=device)) model.eval() with torch.no_grad(): # predict class output = torch.squeeze(model(img.to(device))).cpu() predict = torch.softmax(output, dim=0) predict_cla = torch.argmax(predict).numpy() print_res = "class: {} prob: {:.3}".format(class_indict[str(predict_cla)], predict[predict_cla].numpy()) plt.title(print_res) for i in range(len(predict)): print("class: {:10} prob: {:.3}".format(class_indict[str(i)], predict[i].numpy())) plt.show() if __name__ == '__main__': main()”,改为对指定文件夹下的左右文件进行预测,并绘制混淆矩阵

最新推荐

recommend-type

Java开发案例-springboot-19-校验表单重复提交-源代码+文档.rar

Java开发案例-springboot-19-校验表单重复提交-源代码+文档.rar Java开发案例-springboot-19-校验表单重复提交-源代码+文档.rar Java开发案例-springboot-19-校验表单重复提交-源代码+文档.rar Java开发案例-springboot-19-校验表单重复提交-源代码+文档.rar Java开发案例-springboot-19-校验表单重复提交-源代码+文档.rarJava开发案例-springboot-19-校验表单重复提交-源代码+文档.rar Java开发案例-springboot-19-校验表单重复提交-源代码+文档.rar
recommend-type

基于android的公司员工考勤综合信息平台源码.zip

提供的源码资源涵盖了安卓应用、小程序、Python应用和Java应用等多个领域,每个领域都包含了丰富的实例和项目。这些源码都是基于各自平台的最新技术和标准编写,确保了在对应环境下能够无缝运行。同时,源码中配备了详细的注释和文档,帮助用户快速理解代码结构和实现逻辑。 适用人群: 这些源码资源特别适合大学生群体。无论你是计算机相关专业的学生,还是对其他领域编程感兴趣的学生,这些资源都能为你提供宝贵的学习和实践机会。通过学习和运行这些源码,你可以掌握各平台开发的基础知识,提升编程能力和项目实战经验。 使用场景及目标: 在学习阶段,你可以利用这些源码资源进行课程实践、课外项目或毕业设计。通过分析和运行源码,你将深入了解各平台开发的技术细节和最佳实践,逐步培养起自己的项目开发和问题解决能力。此外,在求职或创业过程中,具备跨平台开发能力的大学生将更具竞争力。 其他说明: 为了确保源码资源的可运行性和易用性,特别注意了以下几点:首先,每份源码都提供了详细的运行环境和依赖说明,确保用户能够轻松搭建起开发环境;其次,源码中的注释和文档都非常完善,方便用户快速上手和理解代码;最后,我会定期更新这些源码资源,以适应各平台技术的最新发展和市场需求。
recommend-type

珍藏很久的一套源码升级了很多

很强大的阿凤飞飞的身份就把饭啦啊开房记录看妇科阿里看到就考虑是否就解放路口空间按时到路口附近开了房间卡拉的时间分开垃圾的浪费空间按可浪费阿克纠纷的看了觉得空房间看大神经费卡上的减肥快接啊看来积分卡时间分开拉丝机房里看见啦开恐怕为日文名弄法卡上的健康饭卡里解放开了哈嘎考虑对方好几万呢uaho时到路口附近开了房间卡拉的时间分开垃圾的浪费空间按可浪费阿克纠纷的看了觉得空房间看大神经费卡上的减肥快接啊看来积分卡时间分开拉丝机房里看见啦开恐怕为日文名弄法卡上的健康饭卡里解放开了哈嘎考虑对方好几万呢uaho上的健康饭卡里解放开了哈嘎考虑对方好几万呢uaho时到路口附近开了房间卡拉的时间分开垃圾的浪费空间按可浪费阿克纠纷的看了觉得空房间看大神经费卡上的减肥快接啊看来积分卡时间分开拉丝机房里看见啦开恐怕为日文名弄法卡上的健康饭卡里解放开了哈嘎考虑对方好几万呢uaho垃圾的浪费空间按可浪费阿克纠纷的看了觉得空房间看大神经费卡上的减肥快接啊看来积分卡时间分开拉丝机房里看见啦开恐怕为日文名弄法卡上的健康饭卡里解放开了哈嘎考虑对方好几万呢uaho上的健康饭卡里解放开了哈嘎考虑对方好几万呢uaho时到路口附近开
recommend-type

附件二六个指标与权重得分 - 副本.xlsx

附件二六个指标与权重得分 - 副本
recommend-type

zigbee-cluster-library-specification

最新的zigbee-cluster-library-specification说明文档。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

MATLAB柱状图在信号处理中的应用:可视化信号特征和频谱分析

![matlab画柱状图](https://img-blog.csdnimg.cn/3f32348f1c9c4481a6f5931993732f97.png) # 1. MATLAB柱状图概述** MATLAB柱状图是一种图形化工具,用于可视化数据中不同类别或组的分布情况。它通过绘制垂直条形来表示每个类别或组中的数据值。柱状图在信号处理中广泛用于可视化信号特征和进行频谱分析。 柱状图的优点在于其简单易懂,能够直观地展示数据分布。在信号处理中,柱状图可以帮助工程师识别信号中的模式、趋势和异常情况,从而为信号分析和处理提供有价值的见解。 # 2. 柱状图在信号处理中的应用 柱状图在信号处理
recommend-type

HSV转为RGB的计算公式

HSV (Hue, Saturation, Value) 和 RGB (Red, Green, Blue) 是两种表示颜色的方式。下面是将 HSV 转换为 RGB 的计算公式: 1. 将 HSV 中的 S 和 V 值除以 100,得到范围在 0~1 之间的值。 2. 计算色相 H 在 RGB 中的值。如果 H 的范围在 0~60 或者 300~360 之间,则 R = V,G = (H/60)×V,B = 0。如果 H 的范围在 60~120 之间,则 R = ((120-H)/60)×V,G = V,B = 0。如果 H 的范围在 120~180 之间,则 R = 0,G = V,B =
recommend-type

JSBSim Reference Manual

JSBSim参考手册,其中包含JSBSim简介,JSBSim配置文件xml的编写语法,编程手册以及一些应用实例等。其中有部分内容还没有写完,估计有生之年很难看到完整版了,但是内容还是很有参考价值的。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依