def writeabnormaldata(self,data_excel, dirname): mid_pcap = [] label_data = [] label_label = [] n = 1 # self.setDir(dirname) for i in range(len(data_excel)): if data_excel["data"][i] == 0: continue count = 0 mid_pcap.append(data_excel["data"][i]) data_number = bytes(str(data_excel["data"][i][2:-1]), encoding="utf-8") original = codecs.escape_decode(data_number, "hex-escape") path = "./" + dirname + "/第%d条数据流" % n + ".txt" with open(path, 'a') as f: label_data.append(original[0]) f.write(self.hexdump(original[0])) f.write("结束") label_label.append(n) count += 1 data_excel["data"][i] = 0 for j in range(i + 1, len(data_excel)): if data_excel["srcip"][i] == data_excel["srcip"][j] and data_excel["dstip"][i] == data_excel["dstip"][ j] and data_excel["sport"][i] == data_excel["sport"][j] and data_excel["dport"][i] == \ data_excel["dport"][j] and data_excel["proto"][i] == data_excel["proto"][j]: count += 1 if count>6 and count<=7: n += 1 count=0 mid_pcap.append(data_excel["data"][j]) data_number = bytes(data_excel["data"][j][2:-1], encoding="utf-8") original = codecs.escape_decode(data_number, "hex-escape") path = "./" + dirname + "/第%d条数据流" % n + ".txt" with open(path, 'a') as f: label_data.append(original[0]) f.write(self.hexdump(original[0])) f.write("结束") label_label.append(n) data_excel["data"][j] = 0 if count>0: n += 1 return label_data ,label_label
时间: 2023-06-03 11:04:23 浏览: 131
该函数的作用是将异常数据写入Excel表格,并存储到指定目录下。其中,mid_pcap、label_data和label_label是数据存储的中间变量,n表示数据的数量。具体的数据处理过程需要参考代码的其他部分。
相关问题
import os.path import gzip import pickle import os import numpy as np import urllib url_base = 'http://yann.lecun.com/exdb/mnist/' key_file = { 'train_img':'train-images-idx3-ubyte.gz', 'train_label':'train-labels-idx1-ubyte.gz', 'test_img':'t10k-images-idx3-ubyte.gz', 'test_label':'t10k-labels-idx1-ubyte.gz' } dataset_dir = os.path.dirname(os.path.abspath("_file_")) save_file = dataset_dir + "/mnist.pkl" train_num=60000 test_num=10000 img_dim=(1,28,28) img_size=784 def _download(file_name): file_path = dataset_dir+"/"+file_name if os.path.exists(file_path): return print("Downloading"+file_name+" ... ") urllib.request.urlretrieve(url_base + file_name,file_path) print("Done") def download_mnist(): for v in key_file.values(): _download(v) def _load_label(file_name): file_path = dataset_dir+ "/" +file_name print("Converting" + file_name +"to Numpy Array ...") with gzip.open(file_path,'rb') as f: labels = np.frombuffer(f.read(),np.uint8,offset=8) print("Done") return labels def _load_img(file_name): file_path=dataset_dir+"/"+file_name print("Converting"+file_name+"to Numpy Array ...") with gzip.open(file_path,'rb') as f: data = np.frombuffer(f.read(),np.uint8,offset=16) data = data.reshape(-1,img_size) print("Done") return data def _convert_numpy(): dataset = {} dataset['train_img'] = _load_img(key_file['train_img']) dataset['train_label'] = _load_label(key_file['train_label']) dataset['test_img'] = _load_img(key_file['test_img']) dataset['test_label'] = _load_label(key_file['test_label']) return dataset def init_mnist(): download_mnist() dataset = _convert_numpy() print("Creating pickle file ...") with open(save_file,'wb') as f: pickle.dump(dataset,f,-1) print("Done") if __name__ =='__main__': init_mnist()
这段代码是用于下载MNIST数据集并将数据集转换成Numpy数组格式的函数。MNIST数据集是一个手写数字识别数据集,包含了60000张训练图片和10000张测试图片。在函数中,首先定义了数据集的下载地址和四个文件的名称,然后定义了四个函数用于下载和转换数据集。其中,_load_label和_load_img函数用于将标签和图片数据转换成Numpy数组格式,并且在转换过程中使用了gzip库解压缩数据。_convert_numpy函数用于将四个Numpy数组合成一个字典类型的数据集。最后,init_mnist函数用于下载数据集并将数据集转换成Numpy数组格式,并使用pickle库将数据集保存到本地文件中。如果MNIST数据集已经下载并保存到本地文件中,则直接加载本地文件中的数据集。
import pickle import os dataset_dir=os.path.dirname(os.path.abspath("__file__")) save_file=dataset_dir+"/mnist.pkl" def _change_one_hot_label(x): T=np.zeros((X.size,10)) for idx, row in enumerate(T): row[X[idx]]=1 return T def load_mnist(normalize=True, flatten=True, one_hot_label=False): if not os.path.exists(save_file): print("请下载数据") with open(save_file,'rb')as f: dataset=pickle.load(f) if normalize: for key in ('train_img','test_img'): dataset[key]=dataset[key].astype(np.float32) dataset[key] /=255.0 if one_hot_label: dataset['train_label']=_change_one_hot_label(dataset['train_label']) dataset['test_label']=_change_one_hot_label(dataset['test_label']) if not flatten: for key in ('train_img','test.img'): dataset[key]=dataset[key].reshape(-1,1,28,28) return (dataset['train_img'],dataset['train_label']),(dataset['test_img'],dataset['test_label'])
这段代码实现的是加载 MNIST 数据集的函数 load_mnist。具体来说,该函数会读取本地 mnist.pkl 文件,将训练集和测试集中的图像数据和标签数据分别存储在 dataset 字典中,并根据传入的参数 normalize、flatten 和 one_hot_label 对这些数据进行处理。
normalize 参数用于指定是否对图像数据进行归一化处理,即将像素值从 0-255 缩放到 0-1 之间。如果 normalize=True,则对训练集和测试集中的图像数据进行归一化处理。
flatten 参数用于指定是否将图像数据展开成一维向量。如果 flatten=True,则将训练集和测试集中的图像数据展开成形状为 (n, 784) 的二维数组,其中 n 是图像数量。否则,将图像数据保留为原始形状 (n, 1, 28, 28)。
one_hot_label 参数用于指定是否对标签数据进行 one-hot 编码。如果 one_hot_label=True,则将训练集和测试集中的标签数据进行 one-hot 编码处理。
最后,该函数返回训练集和测试集的图像数据和标签数据。
阅读全文