for i, row in enumerate(conn): G_dict[i] = np.nonzero(row)[0].tolist()

时间: 2024-05-28 22:14:10 浏览: 89
这是一段Python代码,它的作用是将一个二维矩阵(数据类型为numpy数组)转换为字典形式,其中字典的键是矩阵的行索引,字典的值是该行非零元素的列索引构成的列表。 具体地说,代码中的`conn`是一个二维numpy数组,`enumerate()`函数用于在遍历数组时同时获取行索引`i`和行数据`row`。`np.nonzero(row)`函数返回行`row`中非零元素的索引,即列索引,然后使用`tolist()`方法将其转换为列表形式。最后,将行索引`i`作为键,该行非零元素的列索引列表作为值,添加到字典`G_dict`中。 需要注意的是,这段代码中的`G_dict`并没有初始化,需要在代码的其他部分进行初始化。
相关问题

def refresh_labels(self): data4 = self.la # 连接到 SQLite 数据库文件,并创建游标对象 cursor() conn = sqlite3.connect(filepath) cursor = conn.cursor() data41 = str(self.la) if not data4.endswith('.xlsx'): data4 += '.xlsx' wo = pinjie filepath = os.path.join(wo, data4) if not os.path.exists(filepath): wb = openpyxl.Workbook() wb.save(filepath) else: wb = openpyxl.load_workbook(filepath) for i, sheet_name in enumerate(self.sheet_names): label = tk.Label(self.unique_listbox, text=sheet_name) label.grid(row=i // 3, column=i % 3, sticky="ew", padx=1, pady=1) current_time = datetime.datetime.now().time() start_time_1 = datetime.time(8, 0, 0) # 早上8点 end_time_1 = datetime.time(20, 0, 0) # 下午7点 start_time_2 = datetime.time(20, 0, 0) # 晚上8点 end_time_2 = datetime.time(7, 0, 0) # 早上7点 for i, sheet_name in enumerate(self.sheet_names): filtered_rows = [] # 优化第二段代码:检查文件是否存在 filepath = os.path.join(pinjie, self.la + '.xlsx') if os.path.exists(filepath): workbook = xl.load_workbook(filepath) sheet = workbook.active today = datetime.datetime.now().strftime('%Y/%m/%d') cell_value = sheet.cell(row=1, column=1).value if cell_value is not None and cell_value != '': for row in sheet.iter_rows(min_row=1): if row[2].value == today and row[8].value == sheet_name: datetime_obj = datetime.datetime.strptime(row[3].value, '%H:%M:%S') row_time = datetime_obj.time() if start_time_1 <= row_time <= end_time_1 and start_time_1 <= current_time <= end_time_1: filtered_rows.append(row) elif start_time_2 <= row_time or current_time <= end_time_2: filtered_rows.append(row) label = self.unique_listbox.grid_slaves(row=i // 3, column=i % 3)[0] if filtered_rows: label.config(text=f"{sheet_name} - 已點檢", fg="green") else: label.config(text=f"{sheet_name} - 未點檢", fg="red")什麽意思

这段代码是一个名为`refresh_labels`的方法,用于刷新标签的显示内容。下面是对代码的逐行解释: 1. `data4 = self.la`: 将`self.la`的值赋给变量`data4`。 2. `conn = sqlite3.connect(filepath)`: 连接到SQLite数据库文件,其中`filepath`是一个文件路径。 3. `cursor = conn.cursor()`: 创建一个游标对象,用于执行SQL语句。 4. `data41 = str(self.la)`: 将`self.la`的值转换为字符串,并赋给变量`data41`。 5. `if not data4.endswith('.xlsx'):`: 如果`data4`不以'.xlsx'结尾,则执行以下代码块。 6. `data4 += '.xlsx'`: 将`.xlsx`添加到`data4`末尾。 7. `wo = pinjie`: 将变量`pinjie`的值赋给变量`wo`。 8. `filepath = os.path.join(wo, data4)`: 使用`wo`和`data4`构建文件路径,并赋给变量`filepath`。 9. `if not os.path.exists(filepath):`: 如果路径`filepath`不存在,则执行以下代码块。 10. `wb = openpyxl.Workbook()`: 创建一个新的Excel工作簿对象。 11. `wb.save(filepath)`: 将工作簿保存到指定路径`filepath`。 12. `else:`: 如果路径`filepath`已存在,则执行以下代码块。 13. `wb = openpyxl.load_workbook(filepath)`: 加载现有的Excel工作簿。 14. `for i, sheet_name in enumerate(self.sheet_names):`: 对`self.sheet_names`中的每个元素进行循环迭代,同时获取索引`i`和元素`sheet_name`。 15. `label = tk.Label(self.unique_listbox, text=sheet_name)`: 创建一个标签对象,设置文本为`sheet_name`。 16. `label.grid(row=i // 3, column=i % 3, sticky="ew", padx=1, pady=1)`: 将标签放置在网格布局中的指定位置。 17. `current_time = datetime.datetime.now().time()`: 获取当前时间。 18. `start_time_1 = datetime.time(8, 0, 0)`: 设置早上8点的时间。 19. `end_time_1 = datetime.time(20, 0, 0)`: 设置下午7点的时间。 20. `start_time_2 = datetime.time(20, 0, 0)`: 设置晚上8点的时间。 21. `end_time_2 = datetime.time(7, 0, 0)`: 设置早上7点的时间。 22. `for i, sheet_name in enumerate(self.sheet_names):`: 对`self.sheet_names`中的每个元素进行循环迭代,同时获取索引`i`和元素`sheet_name`。 23. `filtered_rows = []`: 创建一个空列表,用于存储筛选后的行。 24. `filepath = os.path.join(pinjie, self.la + '.xlsx')`: 使用`pinjie`和`self.la + '.xlsx'`构建文件路径,并赋给变量`filepath`。 25. `if os.path.exists(filepath):`: 如果路径`filepath`存在,则执行以下代码块。 26. `workbook = xl.load_workbook(filepath)`: 加载现有的Excel工作簿。 27. `sheet = workbook.active`: 获取活动工作表。 28. `today = datetime.datetime.now().strftime('%Y/%m/%d')`: 获取当前日期并将其格式化为`YYYY/MM/DD`的字符串。 29. `cell_value = sheet.cell(row=1, column=1).value`: 获取工作表中第一行第一列单元格的值。 30. `if cell_value is not None and cell_value != '':`: 如果单元格的值不为空且不为空字符串,则执行以下代码块。 31. `for row in sheet.iter_rows(min_row=1):`: 对工作表中的每一行进行循环迭代。 32. `if row[2].value == today and row[8].value == sheet_name:`: 如果行的第3列值等于今天的日期并且第9列值等于`sheet_name`,则执行以下代码块。 33. `datetime_obj = datetime.datetime.strptime(row[3].value, '%H:%M:%S')`: 将行的第4列值解析为时间对象。 34. `row_time = datetime_obj.time()`: 获取时间对象的时间部分。 35. `if start_time_1 <= row_time <= end_time_1 and start_time_1 <= current_time <= end_time_1:`: 如果行时间在早上8点到下午7点之间,并且当前时间也在这个时间范围内,则执行以下代码块。 36. `filtered_rows.append(row)`: 将当前行添加到筛选后的行列表中。 37. `elif start_time_2 <= row_time or current_time <= end_time_2:`: 如果行时间在晚上8点之后,或者当前时间在早上7点之前,则执行以下代码块。 38. `filtered_rows.append(row)`: 将当前行添加到筛选后的行列表中。 39. `label = self.unique_listbox.grid_slaves(row=i // 3, column=i % 3)[0]`: 获取网格布局中指定位置的标签。 40. `if filtered_rows:`: 如果筛选后的行列表不为空,则执行以下代码块。 41. `label.config(text=f"{sheet_name} - 已點檢", fg="green")`: 将标签的文本设置为`"{sheet_name} - 已點檢"`,并将前景色设置为绿色。 42. `else:`: 如果筛选后的行列表为空,则执行以下代码块。 43. `label.config(text=f"{sheet_name} - 未點檢", fg="red")`: 将标签的文本设置为`"{sheet_name} - 未點檢"`,并将前景色设置为红色。 这段代码的作用是根据SQLite数据库或Excel文件中的数据进行筛选,并根据筛选结果更新标签的文本和颜色。具体的数据查询和处理逻辑可能需要根据实际需求进行进一步调整和完善。如果您有任何具体的问题或需求,请继续提问。

def refresh_labels(self): data4 = self.la if not data4.endswith('.xlsx'): data4 += '.xlsx' wo = pinjie filepath = os.path.join(wo, data4) if not os.path.exists(filepath): wb = openpyxl.Workbook() wb.save(filepath) else: wb = openpyxl.load_workbook(filepath) current_time = datetime.datetime.now().time() start_time_1 = datetime.time(8, 0, 0) # 早上8点 end_time_1 = datetime.time(20, 0, 0) # 下午7点 start_time_2 = datetime.time(20, 0, 0) # 晚上8点 end_time_2 = datetime.time(7, 0, 0) # 早上7点 for i, sheet_name in enumerate(self.sheet_names): filtered_rows = [] # 优化第二段代码:检查文件是否存在 filepath = os.path.join(pinjie, self.la + '.xlsx') if os.path.exists(filepath): workbook = xl.load_workbook(filepath) sheet = workbook.active today = datetime.datetime.now().strftime('%Y/%m/%d') cell_value = sheet.cell(row=1, column=1).value if cell_value is not None and cell_value != '': for row in sheet.iter_rows(min_row=1): if row[2].value == today and row[8].value == sheet_name: datetime_obj = datetime.datetime.strptime(row[3].value, '%H:%M:%S') row_time = datetime_obj.time() if start_time_1 <= row_time <= end_time_1 and start_time_1 <= current_time <= end_time_1: filtered_rows.append(row) elif start_time_2 <= row_time or current_time <= end_time_2: filtered_rows.append(row)

这段代码看起来像是Python中处理Excel文件的代码,可以看到它使用了openpyxl库。它的功能是读取一个Excel文件,并对其中的数据进行筛选和过滤,只返回符合特定时间范围的行。具体来说,它首先检查文件是否存在,如果不存在则创建一个新的Excel文件。然后对于每个sheet,它会检查第一行第一列的值来确定当前的日期,然后检查每行的日期和sheet名称是否匹配,并且时间是否在特定范围内。如果符合条件,就将该行添加到筛选结果中,并返回最终的结果。
阅读全文

相关推荐

def refresh_labels(self): data4 = self.la # 连接到 SQLite 数据库文件,并创建游标对象 cursor() conn = sqlite3.connect(filepath) cursor = conn.cursor() data41 = str(self.la) if not data4.endswith('.xlsx'): data4 += '.xlsx' wo = pinjie filepath = os.path.join(wo, data4) if not os.path.exists(filepath): wb = openpyxl.Workbook() wb.save(filepath) else: wb = openpyxl.load_workbook(filepath) for i, sheet_name in enumerate(self.sheet_names): label = tk.Label(self.unique_listbox, text=sheet_name) label.grid(row=i // 3, column=i % 3, sticky="ew", padx=1, pady=1) current_time = datetime.datetime.now().time() start_time_1 = datetime.time(8, 0, 0) # 早上8点 end_time_1 = datetime.time(20, 0, 0) # 下午7点 start_time_2 = datetime.time(20, 0, 0) # 晚上8点 end_time_2 = datetime.time(7, 0, 0) # 早上7点 for i, sheet_name in enumerate(self.sheet_names): filtered_rows = [] # 优化第二段代码:检查文件是否存在 filepath = os.path.join(pinjie, self.la + '.xlsx') if os.path.exists(filepath): workbook = xl.load_workbook(filepath) sheet = workbook.active today = datetime.datetime.now().strftime('%Y/%m/%d') cell_value = sheet.cell(row=1, column=1).value if cell_value is not None and cell_value != '': for row in sheet.iter_rows(min_row=1): if row[2].value == today and row[8].value == sheet_name: datetime_obj = datetime.datetime.strptime(row[3].value, '%H:%M:%S') row_time = datetime_obj.time() if start_time_1 <= row_time <= end_time_1 and start_time_1 <= current_time <= end_time_1: filtered_rows.append(row) elif start_time_2 <= row_time or current_time <= end_time_2: filtered_rows.append(row) label = self.unique_listbox.grid_slaves(row=i // 3, column=i % 3)[0] if filtered_rows: label.config(text=f"{sheet_name} - 已點檢", fg="green") else: label.config(text=f"{sheet_name} - 未點檢", fg="red")將這段代碼重拼接的excel修改為sqlite3,然後將在這個excel所作的操作,修改為到sqlite3中,其他判斷條件不變,和顯示需求不變

def convert_midi(fp, _seq_len): notes_list = [] stream = converter.parse(fp) partitions = instrument.partitionByInstrument(stream) # print([(part.getInstrument().instrumentName, len(part.flat.notes)) for part in partitions]) # 获取第一个小节(Measure)中的节拍数 _press_time_dict = defaultdict(list) partition = None for part_sub in partitions: if part_sub.getInstrument().instrumentName.lower() == 'piano' and len(part_sub.flat.notes) > 0: partition = part_sub continue if partition is None: return None, None for _note in partition.flat.notes: _duration = str(_note.duration.quarterLength) if isinstance(_note, NoteClass.Note): _press_time_dict[str(_note.offset)].append([str(_note.pitch), _duration]) notes_list.append(_note) if isinstance(_note, ChordClass.Chord): press_list = _press_time_dict[str(_note.offset)] notes_list.append(_note) for sub_note in _note.notes: press_list.append([str(sub_note.pitch), _duration]) if len(_press_time_dict) == _seq_len: break _items = list(_press_time_dict.items()) _items = sorted(_items, key=lambda t:float(Fraction(t[0])))[:_seq_len] if len(_items) < _seq_len: return None,None last_step = Fraction(0,1) notes = np.zeros(shape=(_seq_len,len(notes_vocab),len(durations_vocab)),dtype=np.float32) steps = np.zeros(shape=(_seq_len,len(offsets_vocab)),dtype=np.float32) for idx,(cur_step,entities) in enumerate(_items): cur_step = Fraction(cur_step) diff_step = str(cur_step - last_step) if diff_step in offsets_vocab: steps[idx,offsets_vocab.index(diff_step)] = 1. last_step = cur_step else: steps[idx,offsets_vocab.index('0')] = 1. for pitch,quarterLen in entities: notes[idx,notes_vocab.index(pitch),durations_vocab.index(quarterLen if quarterLen in durations_vocab else '0')] = 1. notes = notes.reshape((seq_len,-1)) inputs = np.concatenate([notes,steps],axis=-1) return inputs,notes_list

import ast from dataclasses import dataclass from typing import List import pandas as pd import json ["text", "六十一岁还能办什么保险"] @dataclass class FAQ: title: str sim_questions: List[str] answer: str faq_id: int ori_data = pd.read_csv('baoxianzhidao_filter.csv') data = [] exist_titles = set() for index, row in enumerate(ori_data.iterrows()): row_dict = row[1] title = row_dict['title'] if title not in exist_titles: data.append(FAQ(title=title, answer=row_dict['reply'], sim_questions=[title], faq_id=index)) exist_titles.add(title) from modelscope.pipelines import pipeline from modelscope.utils.constant import Tasks pipeline_ins = pipeline(Tasks.faq_question_answering, 'damo/nlp_mgimn_faq-question-answering_chinese-base') bsz = 32 all_sentence_vecs = [] batch = [] sentence_list = [faq.title for faq in data] for i,sent in enumerate(sentence_list): batch.append(sent) if len(batch) == bsz or (i == len(sentence_list)-1 and len(batch)>0): # if i == len(sentence_list)-1 and len(batch)>0: sentence_vecs = pipeline_ins.get_sentence_embedding(batch) all_sentence_vecs.extend(sentence_vecs) batch.clear() import faiss import numpy as np hidden_size = pipeline_ins.model.network.bert.config.hidden_size # hidden_size = pipeline_ins.model.bert.config.hidden_size index = faiss.IndexFlatIP(hidden_size) vecs = np.asarray(all_sentence_vecs, dtype='float32') index.add(vecs) from modelscope.outputs import OutputKeys def ask_faq(input, history=[]): # step1: get sentence vector of query query_vec = pipeline_ins.get_sentence_embedding([input])[0] query_vec = np.asarray(query_vec, dtype='float32').reshape([1, -1]) # step2: faq dense retrieval _, indices = index.search(query_vec, k=30) # step3: build support set support_set = [] for i in indices.tolist()[0]: faq = data[i] support_set.append({"text": faq.title, "label": faq.faq_id, "index": i}) # step4: faq ranking rst = pipeline_ins(input={"query_set": input, "support_set": support_set}) rst = rst[OutputKeys.OUTPUT][0][0] pred_label = rst['label'] pred_score = rst['score'] # get answer by faq_id pred_answer = "" pred_title = "" for faq in data: if faq.faq_id == pred_label: pred_answer = faq.answer pred_title = faq.title break history.append((f'{pred_answer}|(pred_title:{pred_title},pred_score:{pred_score:.3f})')) return history优化这段代码

# 目标编码 def gen_target_encoding_feats(train, train_2, test, encode_cols, target_col, n_fold=10): '''生成target encoding特征''' # for training set - cv tg_feats = np.zeros((train.shape[0], len(encode_cols))) kfold = StratifiedKFold(n_splits=n_fold, random_state=1024, shuffle=True) for _, (train_index, val_index) in enumerate(kfold.split(train[encode_cols], train[target_col])): df_train, df_val = train.iloc[train_index], train.iloc[val_index] for idx, col in enumerate(encode_cols): target_mean_dict = df_train.groupby(col)[target_col].mean() if not df_val[f'{col}_mean_target'].empty: df_val[f'{col}_mean_target'] = df_val[col].map(target_mean_dict) tg_feats[val_index, idx] = df_val[f'{col}_mean_target'].values for idx, encode_col in enumerate(encode_cols): train[f'{encode_col}_mean_target'] = tg_feats[:, idx] # for train_2 set - cv tg_feats = np.zeros((train_2.shape[0], len(encode_cols))) kfold = StratifiedKFold(n_splits=n_fold, random_state=1024, shuffle=True) for _, (train_index, val_index) in enumerate(kfold.split(train_2[encode_cols], train_2[target_col])): df_train, df_val = train_2.iloc[train_index], train_2.iloc[val_index] for idx, col in enumerate(encode_cols): target_mean_dict = df_train.groupby(col)[target_col].mean() if not df_val[f'{col}_mean_target'].empty: df_val[f'{col}_mean_target'] = df_val[col].map(target_mean_dict) tg_feats[val_index, idx] = df_val[f'{col}_mean_target'].values for idx, encode_col in enumerate(encode_cols): train_2[f'{encode_col}_mean_target'] = tg_feats[:, idx] # for testing set for col in encode_cols: target_mean_dict = train.groupby(col)[target_col].mean() test[f'{col}_mean_target'] = test[col].map(target_mean_dict) return train, train_2, test features = ['house_exist', 'debt_loan_ratio', 'industry', 'title'] train_1, train_2, test = gen_target_encoding_feats(train_1, train_2, test, features, ['isDefault'], n_fold=10)

import torch, os, cv2 from model.model import parsingNet from utils.common import merge_config from utils.dist_utils import dist_print import torch import scipy.special, tqdm import numpy as np import torchvision.transforms as transforms from data.dataset import LaneTestDataset from data.constant import culane_row_anchor, tusimple_row_anchor if __name__ == "__main__": torch.backends.cudnn.benchmark = True args, cfg = merge_config() dist_print('start testing...') assert cfg.backbone in ['18','34','50','101','152','50next','101next','50wide','101wide'] if cfg.dataset == 'CULane': cls_num_per_lane = 18 elif cfg.dataset == 'Tusimple': cls_num_per_lane = 56 else: raise NotImplementedError net = parsingNet(pretrained = False, backbone=cfg.backbone,cls_dim = (cfg.griding_num+1,cls_num_per_lane,4), use_aux=False).cuda() # we dont need auxiliary segmentation in testing state_dict = torch.load(cfg.test_model, map_location='cpu')['model'] compatible_state_dict = {} for k, v in state_dict.items(): if 'module.' in k: compatible_state_dict[k[7:]] = v else: compatible_state_dict[k] = v net.load_state_dict(compatible_state_dict, strict=False) net.eval() img_transforms = transforms.Compose([ transforms.Resize((288, 800)), transforms.ToTensor(), transforms.Normalize((0.485, 0.456, 0.406), (0.229, 0.224, 0.225)), ]) if cfg.dataset == 'CULane': splits = ['test0_normal.txt', 'test1_crowd.txt', 'test2_hlight.txt', 'test3_shadow.txt', 'test4_noline.txt', 'test5_arrow.txt', 'test6_curve.txt', 'test7_cross.txt', 'test8_night.txt'] datasets = [LaneTestDataset(cfg.data_root,os.path.join(cfg.data_root, 'list/test_split/'+split),img_transform = img_transforms) for split in splits] img_w, img_h = 1640, 590 row_anchor = culane_row_anchor elif cfg.dataset == 'Tusimple': splits = ['test.txt'] datasets = [LaneTestDataset(cfg.data_root,os.path.join(cfg.data_root, split),img_transform = img_transforms) for split in splits] img_w, img_h = 1280, 720 row_anchor = tusimple_row_anchor else: raise NotImplementedError for split, dataset in zip(splits, datasets): loader = torch.utils.data.DataLoader(dataset, batch_size=1, shuffle = False, num_workers=1) fourcc = cv2.VideoWriter_fourcc(*'MJPG') print(split[:-3]+'avi') vout = cv2.VideoWriter(split[:-3]+'avi', fourcc , 30.0, (img_w, img_h)) for i, data in enumerate(tqdm.tqdm(loader)): imgs, names = data imgs = imgs.cuda() with torch.no_grad(): out = net(imgs) col_sample = np.linspace(0, 800 - 1, cfg.griding_num) col_sample_w = col_sample[1] - col_sample[0] out_j = out[0].data.cpu().numpy() out_j = out_j[:, ::-1, :] prob = scipy.special.softmax(out_j[:-1, :, :], axis=0) idx = np.arange(cfg.griding_num) + 1 idx = idx.reshape(-1, 1, 1) loc = np.sum(prob * idx, axis=0) out_j = np.argmax(out_j, axis=0) loc[out_j == cfg.griding_num] = 0 out_j = loc # import pdb; pdb.set_trace() vis = cv2.imread(os.path.join(cfg.data_root,names[0])) for i in range(out_j.shape[1]): if np.sum(out_j[:, i] != 0) > 2: for k in range(out_j.shape[0]): if out_j[k, i] > 0: ppp = (int(out_j[k, i] * col_sample_w * img_w / 800) - 1, int(img_h * (row_anchor[cls_num_per_lane-1-k]/288)) - 1 ) cv2.circle(vis,ppp,5,(0,255,0),-1) vout.write(vis) vout.release()

#查询历史记录 def Get_history(): # 连接数据库 conn = pyodbc.connect('DRIVER={SQL Server};SERVER=DESKTOP-JM5K5CS;DATABASE=bank;UID=sa;PWD=1') # 获取游标 cursor = conn.cursor() # 创建窗口 window = tk.Tk() window.title('查询历史记录') # 创建标签和输入框 label_account_number = tk.Label(window, text='卡号:') label_account_number.grid(row=0, column=0) entry_account_number = tk.Entry(window) entry_account_number.grid(row=0, column=1) label_password = tk.Label(window, text='密码:') label_password.grid(row=1, column=0) entry_password = tk.Entry(window, show='*') entry_password.grid(row=1, column=1) label_start_date = tk.Label(window, text='交易日期:') label_start_date.grid(row=2, column=0) entry_start_date = tk.Entry(window) entry_start_date.grid(row=2, column=1) label_transaction_type = tk.Label(window, text='交易方式:') label_transaction_type.grid(row=3, column=0) transaction_var = tk.StringVar(value='所有') transaction_radios = [ ('所有', '所有'), ('存款', '存款'), ('取款', '取款'), ('转入', '转入'), ('转出', '转出') ] for i, (text, value) in enumerate(transaction_radios): radio = tk.Radiobutton(window, text=text, variable=transaction_var, value=value) radio.grid(row=i + 4, column=1) label_password = tk.Label(window, text='备注:') label_password.grid(row=4, column=0) entry_password = tk.Entry(window, show='*') entry_password.grid(row=4, column=1) # 创建按钮和文本框 text_history = tk.Text(window) text_history.grid(row=2, column=0, rowspan=6) def get_history(): # 查询数据 account_number = entry_account_number.get() password = entry_password.get() transaction_date = entry_start_date.get() transaction_type = None if transaction_var.get() != '所有': transaction_type = transaction_var.get() # 查询卡号和密码是否匹配 cursor.execute("SELECT * FROM Accounts WHERE account_number = ? AND password = ?",

import networkx as nx import numpy as np import pandas as pd import matplotlib.pyplot as plt import networkx as nx import random df=pd.read_csv("D:\级联失效\edges.csv") G=nx.from_pandas_edgelist(df,'from','to',create_using=nx.Graph()) nx.draw(G,node_size=300,with_labels=True) As=nx.adjacency_matrix(G) A=As.todense() def f(x): F=4*x*(1-x) return F n=len(A) r=2 ohxs=0.4 step=10 d=np.zeros([n,step]) for i in range(n): d[i,0]=np.sum(A[i]) x_intial=np.zeros([n,step]) for i in range(n): x_intial[i,0]=random.random() np.set_printoptions(precision=5) h_a=100 H=np.zeros([n,step]) D=np.zeros([n,step]) for i in range(n): Deg=0 for k in range(n): if k!=i: Deg=Deg+d[k,0] D[i,0]=Deg H[i,0]=d[i,0]/D[i,0]/h_a fail_scale=np.zeros(step) fail_scale[0]=1 node_rand_id=random.randint(0,n) r=2 x_intial[node_rand_id,0]=x_intial[node_rand_id,0]+r print(x_intial) fail_node=np.zeros(n) fail_node[node_rand_id]=1 print(fail_node) np.seterr(divide='ignore',invalid='ignore') for t in range(1,step): fail_node_id=[idx for (idx,val) in enumerate(fail_node) if val ==1] for i in range(n): sum=0 for j in range(n): sum = sum+A[i,j]*f(x_intial[j,t-1])/d[i] if i in fail_node_id: x_intial[i,t-1]=0 A[i,:]=0 A[:,i]=0 else: x_intial[i,t]=H[i,t-1]*abs((1-ohxs)*f(x_intial[i,t-1])+ohxs*sum) d[i,t]=np.sum(A[i]) Deg=0 for k in range(n): if k!=i: Deg=Deg+d[i,t] D[i,t]=Deg H[i,t]=d[i,t]/D[i,t]/h_a new_fail_id=[idx for (idx,val) in enumerate(x_intial[:,t]) if val>=1] fail_scale[t]=fail_scale[t-1]+len(new_fail_id) fail_node[new_fail_id]=1 x_intial[new_fail_id,t]=x_intial[new_fail_id,t]+r print(H[i,t]) print(fail_node) print(x_intial) plt.plot(fail_scale) plt.show()

最新推荐

recommend-type

基于springboot+vue的体育馆管理系统的设计与实现(Java毕业设计,附源码,部署教程).zip

该项目包含完整的前后端代码、数据库脚本和相关工具,简单部署即可运行。功能完善、界面美观、操作简单,具有很高的实际应用价值,非常适合作为Java毕业设计或Java课程设计使用。 所有项目均经过严格调试,确保可运行!下载后即可快速部署和使用。 1 适用场景: 毕业设计 期末大作业 课程设计 2 项目特点: 代码完整:详细代码注释,适合新手学习和使用 功能强大:涵盖常见的核心功能,满足大部分课程设计需求 部署简单:有基础的人,只需按照教程操作,轻松完成本地或服务器部署 高质量代码:经过严格测试,确保无错误,稳定运行 3 技术栈和工具 前端:HTML + Vue.js 后端框架:Spring Boot 开发环境:IntelliJ IDEA 数据库:MySQL(建议使用 5.7 版本,更稳定) 数据库可视化工具:Navicat 部署环境:Tomcat(推荐 7.x 或 8.x 版本),Maven
recommend-type

探索zinoucha-master中的0101000101奥秘

资源摘要信息:"zinoucha:101000101" 根据提供的文件信息,我们可以推断出以下几个知识点: 1. 文件标题 "zinoucha:101000101" 中的 "zinoucha" 可能是某种特定内容的标识符或是某个项目的名称。"101000101" 则可能是该项目或内容的特定代码、版本号、序列号或其他重要标识。鉴于标题的特殊性,"zinoucha" 可能是一个与数字序列相关联的术语或项目代号。 2. 描述中提供的 "日诺扎 101000101" 可能是标题的注释或者补充说明。"日诺扎" 的含义并不清晰,可能是人名、地名、特殊术语或是一种加密/编码信息。然而,由于描述与标题几乎一致,这可能表明 "日诺扎" 和 "101000101" 是紧密相关联的。如果 "日诺扎" 是一个密码或者编码,那么 "101000101" 可能是其二进制编码形式或经过某种特定算法转换的结果。 3. 标签部分为空,意味着没有提供额外的分类或关键词信息,这使得我们无法通过标签来获取更多关于该文件或项目的信息。 4. 文件名称列表中只有一个文件名 "zinoucha-master"。从这个文件名我们可以推测出一些信息。首先,它表明了这个项目或文件属于一个更大的项目体系。在软件开发中,通常会将主分支或主线版本命名为 "master"。所以,"zinoucha-master" 可能指的是这个项目或文件的主版本或主分支。此外,由于文件名中同样包含了 "zinoucha",这进一步确认了 "zinoucha" 对该项目的重要性。 结合以上信息,我们可以构建以下几个可能的假设场景: - 假设 "zinoucha" 是一个项目名称,那么 "101000101" 可能是该项目的某种特定标识,例如版本号或代码。"zinoucha-master" 作为主分支,意味着它包含了项目的最稳定版本,或者是开发的主干代码。 - 假设 "101000101" 是某种加密或编码,"zinoucha" 和 "日诺扎" 都可能是对其进行解码或解密的钥匙。在这种情况下,"zinoucha-master" 可能包含了用于解码或解密的主算法或主程序。 - 假设 "zinoucha" 和 "101000101" 代表了某种特定的数据格式或标准。"zinoucha-master" 作为文件名,可能意味着这是遵循该标准或格式的最核心文件或参考实现。 由于文件信息非常有限,我们无法确定具体的领域或背景。"zinoucha" 和 "日诺扎" 可能是任意领域的术语,而 "101000101" 作为二进制编码,可能在通信、加密、数据存储等多种IT应用场景中出现。为了获得更精确的知识点,我们需要更多的上下文信息和具体的领域知识。
recommend-type

【Qt与OpenGL集成】:提升框选功能图形性能,OpenGL的高效应用案例

![【Qt与OpenGL集成】:提升框选功能图形性能,OpenGL的高效应用案例](https://img-blog.csdnimg.cn/562b8d2b04d343d7a61ef4b8c2f3e817.png) # 摘要 本文旨在探讨Qt与OpenGL集成的实现细节及其在图形性能优化方面的重要性。文章首先介绍了Qt与OpenGL集成的基础知识,然后深入探讨了在Qt环境中实现OpenGL高效渲染的技术,如优化渲染管线、图形数据处理和渲染性能提升策略。接着,文章着重分析了框选功能的图形性能优化,包括图形学原理、高效算法实现以及交互设计。第四章通过高级案例分析,比较了不同的框选技术,并探讨了构
recommend-type

ffmpeg 指定屏幕输出

ffmpeg 是一个强大的多媒体处理工具,可以用来处理视频、音频和字幕等。要使用 ffmpeg 指定屏幕输出,可以使用以下命令: ```sh ffmpeg -f x11grab -s <width>x<height> -r <fps> -i :<display>.<screen>+<x_offset>,<y_offset> output_file ``` 其中: - `-f x11grab` 指定使用 X11 屏幕抓取输入。 - `-s <width>x<height>` 指定抓取屏幕的分辨率,例如 `1920x1080`。 - `-r <fps>` 指定帧率,例如 `25`。 - `-i
recommend-type

个人网站技术深度解析:Haskell构建、黑暗主题、并行化等

资源摘要信息:"个人网站构建与开发" ### 网站构建与部署工具 1. **Nix-shell** - Nix-shell 是 Nix 包管理器的一个功能,允许用户在一个隔离的环境中安装和运行特定版本的软件。这在需要特定库版本或者不同开发环境的场景下非常有用。 - 使用示例:`nix-shell --attr env release.nix` 指定了一个 Nix 环境配置文件 `release.nix`,从而启动一个专门的 shell 环境来构建项目。 2. **Nix-env** - Nix-env 是 Nix 包管理器中的一个命令,用于环境管理和软件包安装。它可以用来安装、更新、删除和切换软件包的环境。 - 使用示例:`nix-env -if release.nix` 表示根据 `release.nix` 文件中定义的环境和依赖,安装或更新环境。 3. **Haskell** - Haskell 是一种纯函数式编程语言,以其强大的类型系统和懒惰求值机制而著称。它支持高级抽象,并且广泛应用于领域如研究、教育和金融行业。 - 标签信息表明该项目可能使用了 Haskell 语言进行开发。 ### 网站功能与技术实现 1. **黑暗主题(Dark Theme)** - 黑暗主题是一种界面设计,使用较暗的颜色作为背景,以减少对用户眼睛的压力,特别在夜间或低光环境下使用。 - 实现黑暗主题通常涉及CSS中深色背景和浅色文字的设计。 2. **使用openCV生成缩略图** - openCV 是一个开源的计算机视觉和机器学习软件库,它提供了许多常用的图像处理功能。 - 使用 openCV 可以更快地生成缩略图,通过调用库中的图像处理功能,比如缩放和颜色转换。 3. **通用提要生成(Syndication Feed)** - 通用提要是 RSS、Atom 等格式的集合,用于发布网站内容更新,以便用户可以通过订阅的方式获取最新动态。 - 实现提要生成通常需要根据网站内容的更新来动态生成相应的 XML 文件。 4. **IndieWeb 互动** - IndieWeb 是一个鼓励人们使用自己的个人网站来发布内容,而不是使用第三方平台的运动。 - 网络提及(Webmentions)是 IndieWeb 的一部分,它允许网站之间相互提及,类似于社交媒体中的评论和提及功能。 5. **垃圾箱包装/网格系统** - 垃圾箱包装可能指的是一个用于暂存草稿或未发布内容的功能,类似于垃圾箱回收站。 - 网格系统是一种布局方式,常用于网页设计中,以更灵活的方式组织内容。 6. **画廊/相册/媒体类型/布局** - 这些关键词可能指向网站上的图片展示功能,包括但不限于相册、网络杂志、不同的媒体展示类型和布局设计。 7. **标签/类别/搜索引擎** - 这表明网站具有内容分类功能,用户可以通过标签和类别来筛选内容,并且可能内置了简易的搜索引擎来帮助用户快速找到相关内容。 8. **并行化(Parallelization)** - 并行化在网站开发中通常涉及将任务分散到多个处理单元或线程中执行,以提高效率和性能。 - 这可能意味着网站的某些功能被设计成可以同时处理多个请求,比如后台任务、数据处理等。 9. **草稿版本+实时服务器** - 草稿版本功能允许用户保存草稿并能在需要时编辑和发布。 - 实时服务器可能是指网站采用了实时数据同步的技术,如 WebSockets,使用户能够看到内容的实时更新。 ### 总结 上述信息展示了一个人在个人网站开发过程中所涉及到的技术和功能实现,包括了环境配置、主题设计、内容管理和用户体验优化。从使用Nix-shell进行环境隔离和依赖管理到实现一个具有高级功能和良好用户体验的个人网站,每个技术点都是现代Web开发中的关键组成部分。
recommend-type

Qt框选功能的国际化实践:支持多语言界面的核心技术解析

![Qt框选功能的国际化实践:支持多语言界面的核心技术解析](https://opengraph.githubassets.com/1e33120fcc70e1a474ab01c7262f9ee89247dfbff9cf5cb5b767da34e5b70381/LCBTS/Qt-read-file) # 摘要 本文系统地探讨了Qt框架下多语言界面设计与国际化的实现原理和技术细节。首先介绍了Qt国际化框架的基础知识和多语言界面设计的基本原理,包括文本处理、资源文件管理、核心API的应用等。随后,文章详细阐述了设计可翻译用户界面、动态语言切换和界面更新以及测试和调试多语言界面的实践技巧。深入理解
recommend-type

内网如何运行docker pull mysql:5.7

要在内网中运行Docker的pull命令来获取MySQL 5.7镜像,可以按照以下步骤进行操作: 1. 确保在内网中的计算机上安装了Docker。 2. 打开终端或命令提示符,并使用以下命令登录到Docker镜像仓库: ```shell docker login <repository> ``` 将`<repository>`替换为MySQL镜像仓库的地址,例如`mysql`或`docker.io/mysql`。 3. 输入用户名和密码以登录到镜像仓库。 4. 使用以下命令从镜像仓库拉取MySQL 5.7镜像: ```shell docker pull <repository>/my
recommend-type

ImgToString开源工具:图像转字符串轻松实现

资源摘要信息:"ImgToString是一款开源软件,其主要功能是将图像文件转换为字符串。这种转换方式使得图像文件可以被复制并粘贴到任何支持文本输入的地方,比如文本编辑器、聊天窗口或者网页代码中。通过这种方式,用户无需附加文件即可分享图像信息,尤其适用于在文本模式的通信环境中传输图像数据。" 在技术实现层面,ImgToString可能采用了一种特定的编码算法,将图像文件的二进制数据转换为Base64编码或其他编码格式的字符串。Base64是一种基于64个可打印字符来表示二进制数据的编码方法。由于ASCII字符集只有128个字符,而Base64使用64个字符,因此可以确保转换后的字符串在大多数文本处理环境中能够安全传输,不会因为特殊字符而被破坏。 对于jpg或png等常见的图像文件格式,ImgToString软件需要能够解析这些格式的文件结构,提取图像数据,并进行相应的编码处理。这个过程通常包括读取文件头信息、确定图像尺寸、颜色深度、压缩方式等关键参数,然后根据这些参数将图像的像素数据转换为字符串形式。对于jpg文件,可能还需要处理压缩算法(如JPEG算法)对图像数据的处理。 使用开源软件的好处在于其源代码的开放性,允许开发者查看、修改和分发软件。这为社区提供了改进和定制软件的机会,同时也使得软件更加透明,用户可以对软件的工作方式更加放心。对于ImgToString这样的工具而言,开放源代码意味着可以由社区进行扩展,比如增加对其他图像格式的支持、优化转换速度、提高编码效率或者增加用户界面等。 在使用ImgToString或类似的工具时,需要注意的一点是编码后的字符串可能会变得非常长,尤其是对于高分辨率的图像。这可能会导致在某些场合下使用不便,例如在社交媒体或者限制字符数的平台上分享。此外,由于字符串中的数据是图像的直接表示,它们可能会包含非打印字符或特定格式的字符串,这在某些情况下可能会导致兼容性问题。 对于开发者而言,ImgToString这类工具在自动化测试、数据备份、跨平台共享图像资源等多种场景中非常有用。在Web开发中,可以利用此类工具将图像数据嵌入到HTML或CSS文件中,或者通过RESTful API传输图像数据时使用字符串形式。在自动化测试中,可以将预期的图像输出以字符串形式保存在测试脚本中,用于比对生成的图像字符串,以此验证图像内容的正确性。 综上所述,ImgToString作为一款开源软件,提供了一种将图像文件转换为字符串的实用方法。这不仅为图像的传输和分享提供了便利,也为开发者提供了在不同应用场景中集成图像数据的新思路。同时,其开源的特性也为社区贡献和软件改进提供了可能,使得软件本身能够更加完善,满足更多的需求。
recommend-type

Qt框选功能安全性增强指南:防止恶意操作的有效策略

![Qt框选功能安全性增强指南:防止恶意操作的有效策略](https://ddgobkiprc33d.cloudfront.net/f5da12c0-45ae-492a-a46b-b99d84bb60c4.png) # 摘要 本文聚焦于Qt框架中框选功能的安全性问题。首先介绍了Qt框选功能的基础概念和安全性基础,包括Qt的安全架构、安全编码标准和安全设计原则。接着,分析了框选功能中权限管理的必要性和实现方法。随后,探讨了如何通过多种防御策略,如输入验证、事件监听和安全审计,来识别和防御恶意操作。文章进一步详述了进行安全测试与验证的重要性,以及如何模拟攻击以修复安全漏洞。最后,通过案例研究,本
recommend-type

在ros平台中实现人脸识别

在ROS(Robot Operating System)平台中实现人脸识别可以按照以下步骤进行: 1. **环境搭建**: - 安装ROS:首先需要在系统上安装ROS。可以参考ROS的官方文档进行安装。 - 安装依赖库:安装一些必要的依赖库,如OpenCV、dlib等。可以使用以下命令进行安装: ```bash sudo apt-get install ros-<distro>-opencv3 pip install dlib ``` 2. **创建ROS包**: - 创建一个新的ROS包,用于存放人脸识别的代码。可以使用以下命令创