calc.setNum(num === '' || num === '-' || num === '-0.' ? '0' : num)

时间: 2024-06-18 09:02:40 浏览: 10
calc.setNum(num === '' || num === '-' || num === '-0.' ? '0' : num)的作用是将用户输入的数字字符串转化为可以进行计算的数字类型。具体来说,它会首先判断用户输入的数字是否为空、是否为负号或者是"-0.",如果是,那么就将其转化为0。如果不是,则将其转化为数字类型。 举例来说,如果用户输入了"-0.123",那么经过这个函数处理后就会变成-0.123。而如果用户输入了""或者"-",那么就会被转化为0。
相关问题

def create_C1(dataset): C1 = [] for transaction in dataset: for item in transaction: if not [item] in C1: C1.append([item]) C1.sort() return list(map(frozenset, C1)) def scan_D(D, Ck, min_support): ssCnt = {} for tid in D: for can in Ck: if can.issubset(tid): if not can in ssCnt: ssCnt[can] = 1 else: ssCnt[can] += 1 num_items = float(len(D)) retList = [] support_data = {} for key in ssCnt: support = ssCnt[key] / num_items if support >= min_support: retList.insert(0, key) support_data[key] = support return retList, support_data def apriori_gen(Lk, k): retList = [] len_Lk = len(Lk) for i in range(len_Lk): for j in range(i+1, len_Lk): L1 = list(Lk[i])[:k-2] L2 = list(Lk[j])[:k-2] L1.sort() L2.sort() if L1 == L2: retList.append(Lk[i] | Lk[j]) return retList def apriori(dataset, min_support=0.5): C1 = create_C1(dataset) D = list(map(set, dataset)) L1, support_data = scan_D(D, C1, min_support) L = [L1] k = 2 while len(L[k-2]) > 0: Ck = apriori_gen(L[k-2], k) Lk, support_k = scan_D(D, Ck, min_support) support_data.update(support_k) L.append(Lk) k += 1 return L, support_data再此代码基础上增加置信度

在Apriori算法中,可以通过计算关联规则的置信度来评估规则的可靠性。置信度表示当一个规则的前提项出现时,结论项也会出现的概率。可以使用以下代码来计算关联规则的置信度: ```python def generate_rules(L, support_data, min_confidence=0.7): """生成关联规则""" big_rules_list = [] for i in range(1, len(L)): for freq_set in L[i]: H1 = [frozenset([item]) for item in freq_set] if i > 1: rules_from_conseq(freq_set, H1, support_data, big_rules_list, min_confidence) else: calc_confidence(freq_set, H1, support_data, big_rules_list, min_confidence) return big_rules_list def calc_confidence(freq_set, H, support_data, brl, min_confidence=0.7): """计算规则的置信度""" pruned_H = [] for conseq in H: conf = support_data[freq_set] / support_data[freq_set - conseq] if conf >= min_confidence: print(freq_set - conseq, "-->", conseq, "conf:", conf) brl.append((freq_set - conseq, conseq, conf)) pruned_H.append(conseq) return pruned_H def rules_from_conseq(freq_set, H, support_data, brl, min_confidence=0.7): """从H中生成更多的关联规则""" m = len(H[0]) if len(freq_set) > (m + 1): Hmp1 = apriori_gen(H, m + 1) Hmp1 = calc_confidence(freq_set, Hmp1, support_data, brl, min_confidence) if len(Hmp1) > 1: rules_from_conseq(freq_set, Hmp1, support_data, brl, min_confidence) ``` 其中,`generate_rules`函数用于生成关联规则,`calc_confidence`函数用于计算规则的置信度,`rules_from_conseq`函数用于从H中生成更多的关联规则。在计算置信度时,需要计算规则的支持度以及规则的前提项和结论项的支持度,然后使用支持度计算置信度,并与最小置信度进行比较。如果置信度大于或等于最小置信度,则输出关联规则。

def create_C1(dataset): C1 = [] for transaction in dataset: for item in transaction: if not [item] in C1: C1.append([item]) C1.sort() return list(map(frozenset, C1)) # print(len(create_C1(dataset))) def scan_D(D, Ck, min_support): ssCnt = {} for tid in D: for can in Ck: if can.issubset(tid): if not can in ssCnt: ssCnt[can] = 1 else: ssCnt[can] += 1 num_items = float(len(D)) retList = [] support_data = {} for key in ssCnt: support = ssCnt[key] / num_items if support >= min_support: retList.insert(0, key) support_data[key] = support return retList, support_data def apriori_gen(Lk, k): retList = [] len_Lk = len(Lk) for i in range(len_Lk): for j in range(i + 1, len_Lk): L1 = list(Lk[i])[:k - 2] L2 = list(Lk[j])[:k - 2] L1.sort() L2.sort() if L1 == L2: retList.append(Lk[i] | Lk[j]) return retList def apriori(dataset, min_support): C1 = create_C1(dataset) D = list(map(set, dataset)) L1, support_data = scan_D(D, C1, min_support) L = [L1] k = 2 while len(L[k - 2]) > 0: Ck = apriori_gen(L[k - 2], k) Lk, support_k = scan_D(D, Ck, min_support) support_data.update(support_k) L.append(Lk) k += 1 return L, support_data如果我想在这段代码中加入置信度,怎么加

在这段代码中加入置信度,实际上是要实现关联规则算法。在Apriori算法的基础上,可以通过以下步骤来实现关联规则算法: 1. 从频繁项集L中生成候选规则集合,即对于每个频繁项集,生成包含该项集中所有元素的所有子集。 2. 对于每个候选规则,计算其置信度,并筛选出满足最小置信度要求的规则。 下面是修改后的代码实现: ```python def generate_rules(L, support_data, min_conf): rules_list = [] for i in range(1, len(L)): for freq_set in L[i]: H1 = [frozenset([item]) for item in freq_set] if i > 1: rules_from_conseq(freq_set, H1, support_data, rules_list, min_conf) else: calc_conf(freq_set, H1, support_data, rules_list, min_conf) return rules_list def calc_conf(freq_set, H, support_data, brl, min_conf): pruned_h = [] for conseq in H: conf = support_data[freq_set] / support_data[freq_set - conseq] if conf >= min_conf: print(freq_set - conseq, '-->', conseq, 'conf:', conf) brl.append((freq_set - conseq, conseq, conf)) pruned_h.append(conseq) return pruned_h def rules_from_conseq(freq_set, H, support_data, brl, min_conf): m = len(H[0]) if len(freq_set) > (m + 1): Hmp1 = apriori_gen(H, m + 1) Hmp1 = calc_conf(freq_set, Hmp1, support_data, brl, min_conf) if len(Hmp1) > 1: rules_from_conseq(freq_set, Hmp1, support_data, brl, min_conf) def apriori(dataset, min_support, min_conf): C1 = create_C1(dataset) D = list(map(set, dataset)) L1, support_data = scan_D(D, C1, min_support) L = [L1] k = 2 while len(L[k - 2]) > 0: Ck = apriori_gen(L[k - 2], k) Lk, support_k = scan_D(D, Ck, min_support) support_data.update(support_k) L.append(Lk) k += 1 rules_list = generate_rules(L, support_data, min_conf) return L, support_data, rules_list ``` 其中,generate_rules函数用于生成关联规则,calc_conf函数用于计算规则的置信度,rules_from_conseq函数用于从频繁项集中生成候选规则,apriori函数用于调用Apriori算法和关联规则算法,并返回频繁项集、支持度数据和关联规则列表。在调用apriori函数时,需要传入最小支持度和最小置信度阈值。

相关推荐

@ai 在以下代码基础上,给出代码计算数据的置信度和提升度并输出:import csv nihao=open(r"D:\qq\Groceries.csv","r") reader=csv.reader(nihao) nihao=list(reader) for x in range(1,9836): del nihao[x][0] del nihao[0] nihao_str = str(nihao).replace('{', '').replace('}', '')# 将花括号替换为空字符串 zaijian = eval(nihao_str)# 将字符串转换回列表 def load_dataset(): # 这里只是一个示例数据集,请根据实际情况修改 dataset = zaijian return dataset def create_C1(dataset): C1 = [] for transaction in dataset: for item in transaction: if not [item] in C1: C1.append([item]) C1.sort() return list(map(frozenset, C1)) def scan_D(D, Ck, min_support): ssCnt = {} for tid in D: for can in Ck: if can.issubset(tid): if not can in ssCnt: ssCnt[can] = 1 else: ssCnt[can] += 1 num_items = float(len(D)) retList = [] support_data = {} for key in ssCnt: support = ssCnt[key] / num_items if support >= min_support: retList.insert(0, key) support_data[key] = support return retList, support_data def apriori_gen(Lk, k): retList = [] len_Lk = len(Lk) for i in range(len_Lk): for j in range(i+1, len_Lk): L1 = list(Lk[i])[:k-2] L2 = list(Lk[j])[:k-2] L1.sort() L2.sort() if L1 == L2: retList.append(Lk[i] | Lk[j]) return retList def apriori(dataset, min_support=0.01): C1 = create_C1(dataset) D = list(map(set, dataset)) L1, support_data = scan_D(D, C1, min_support) L = [L1] k = 2 while len(L[k-2]) > 0: Ck = apriori_gen(L[k-2], k) Lk, support_k = scan_D(D, Ck, min_support) support_data.update(support_k) L.append(Lk) k += 1 return L, support_data

<?php namespace App\Models; use Illuminate\Database\Eloquent\Model; use Illuminate\Support\Facades\DB; class WebModel extends Model { /** * Create a new Eloquent model instance. * * @param array $attributes */ public function __construct() { $this->setTable('pms_web'); parent::__construct(); } const STATUS_NORMAL = 1; //正常 const STATUS_FREEZE = 2; //冻结 public static function Enum($sign = "") { $status = [ 'status' => [ self::STATUS_NORMAL, self::STATUS_FREEZE ] ]; return isset($status[$sign]) ? $status[$sign] : $status; } public function WebDb() { return DB::table($this->getTable(),'w'); } public function FindOne($content, $param = "id") { $result = $this->WebDb()->where($param, $content)->select(DB::raw('id'))->first(); if (empty($result)) { return ''; } return $this->FormatOne($result); } public function FindList($params) { $query = $this->WebDb(); $query->select( DB::raw('SQL_CALC_FOUND_ROWS id') ); $query->limit($params['per_page']); $query->offset($params['offset']); $query->orderByDesc('w.id'); $result = $query->get(); $return_result = array( 'total' => 0, 'data' => [], ); if (empty($result)) { return $return_result; } $fromat_result = $this->FormatList($result); $total = DB::select("select FOUND_ROWS() as num")[0]->num; return [ 'total' => $total, 'data' => $fromat_result, ]; } public function FormatList(&$result) { foreach ($result as $v) { $this->FormatOne($v); } return $result; } public function FormatOne(&$result) { return $result; } public function simpleSave($data, $where = []) { } }

最新推荐

recommend-type

python 实现简单的计算器(gui界面)

def click(num): global op op=op+str(num) iptext.set(op) def evaluate(): global op output=str(eval&#40;op&#41;) iptext.set(output) def clearDisplay(): global op op="" iptext.set(op) calc=Tk() ...
recommend-type

MindeNLP+MusicGen-音频提示生成

MindeNLP+MusicGen-音频提示生成
recommend-type

WNM2027-VB一款SOT23封装N-Channel场效应MOS管

SOT23;N—Channel沟道,20V;6A;RDS(ON)=24mΩ@VGS=4.5V,VGS=8V;Vth=0.45~1V;
recommend-type

线上营销推广策略设计与效果评估研究

线上营销推广策略设计与效果评估研究
recommend-type

谷歌文件系统下的实用网络编码技术在分布式存储中的应用

"本文档主要探讨了一种在谷歌文件系统(Google File System, GFS)下基于实用网络编码的策略,用于提高分布式存储系统的数据恢复效率和带宽利用率,特别是针对音视频等大容量数据的编解码处理。" 在当前数字化时代,数据量的快速增长对分布式存储系统提出了更高的要求。分布式存储系统通过网络连接的多个存储节点,能够可靠地存储海量数据,并应对存储节点可能出现的故障。为了保证数据的可靠性,系统通常采用冗余机制,如复制和擦除编码。 复制是最常见的冗余策略,简单易行,即每个数据块都会在不同的节点上保存多份副本。然而,这种方法在面对大规模数据和高故障率时,可能会导致大量的存储空间浪费和恢复过程中的带宽消耗。 相比之下,擦除编码是一种更为高效的冗余方式。它将数据分割成多个部分,然后通过编码算法生成额外的校验块,这些校验块可以用来在节点故障时恢复原始数据。再生码是擦除编码的一个变体,它在数据恢复时只需要下载部分数据,从而减少了所需的带宽。 然而,现有的擦除编码方案在实际应用中可能面临效率问题,尤其是在处理大型音视频文件时。当存储节点发生故障时,传统方法需要从其他节点下载整个文件的全部数据,然后进行重新编码,这可能导致大量的带宽浪费。 该研究提出了一种实用的网络编码方法,特别适用于谷歌文件系统环境。这一方法优化了数据恢复过程,减少了带宽需求,提高了系统性能。通过智能地利用网络编码,即使在节点故障的情况下,也能实现高效的数据修复,降低带宽的浪费,同时保持系统的高可用性。 在音视频编解码场景中,这种网络编码技术能显著提升大文件的恢复速度和带宽效率,对于需要实时传输和处理的媒体服务来说尤其重要。此外,由于网络编码允许部分数据恢复,因此还能减轻对网络基础设施的压力,降低运营成本。 总结起来,这篇研究论文为分布式存储系统,尤其是处理音视频内容的系统,提供了一种创新的网络编码策略,旨在解决带宽效率低下和数据恢复时间过长的问题。这一方法对于提升整个系统性能,保证服务的连续性和可靠性具有重要的实践意义。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

【功率因数校正秘籍】:10个步骤提升电能利用率

![【功率因数校正秘籍】:10个步骤提升电能利用率](https://img-blog.csdnimg.cn/direct/829b6c5a308c40129620b20de2ebfcd9.png) # 1. 功率因数校正概述 功率因数是衡量交流电系统中有效功率与视在功率之比的指标,反映了电能利用的效率。当功率因数较低时,系统中的无功功率会增加,导致电能损耗、电压波动和电网容量浪费等问题。 功率因数校正是一种通过增加或减少无功功率来提高功率因数的技术。通过安装无功补偿设备,如电容器或电抗器,可以抵消感性或容性负载产生的无功功率,从而提高系统中的功率因数。功率因数校正不仅可以节约电能,还可以
recommend-type

``` if build_id then -- 单个屋子 else -- 所有屋子 end ```

在你的代码片段中,`build_id` 的存在与否决定了执行不同的逻辑。如果 `build_id` 为真(非空或非零),则执行针对单个屋子的代码;否则,执行针对所有屋子的代码。这种结构在 Lua 中已经相对简洁,但为了提高可读性和潜在的性能优化,你可以考虑以下几点: 1. **使用更明确的条件语句**:可以使用 `if build_id ~= nil` 替换 `if build_id then`,因为 `nil` 在 Lua 中被视为 `false`。 2. **逻辑封装**:如果两个分支的代码复杂度相当,可以考虑将它们抽象为函数,这样更易于维护和复用。 3. **避免不必要的布尔转换*
recommend-type

跨国媒体对南亚农村社会的影响:以斯里兰卡案例的社会学分析

本文档《音视频-编解码-关于跨国媒体对南亚农村群体的社会的社会学分析斯里兰卡案例研究G.pdf》主要探讨了跨国媒体在南亚农村社区中的社会影响,以斯里兰卡作为具体案例进行深入剖析。研究从以下几个方面展开: 1. 引言与研究概述 (1.1-1.9) - 介绍部分概述了研究的背景,强调了跨国媒体(如卫星电视、互联网等)在全球化背景下对南亚农村地区的日益重要性。 - 阐述了研究问题的定义,即跨国媒体如何改变这些社区的社会结构和文化融合。 - 提出了研究假设,可能是关于媒体对社会变迁、信息传播以及社区互动的影响。 - 研究目标和目的明确,旨在揭示跨国媒体在农村地区的功能及其社会学意义。 - 也讨论了研究的局限性,可能包括样本选择、数据获取的挑战或理论框架的适用范围。 - 描述了研究方法和步骤,包括可能采用的定性和定量研究方法。 2. 概念与理论分析 (2.1-2.7.2) - 跨国媒体与创新扩散的理论框架被考察,引用了Lerner的理论来解释信息如何通过跨国媒体传播到农村地区。 - 关于卫星文化和跨国媒体的关系,文章探讨了这些媒体如何成为当地社区共享的文化空间。 - 文献还讨论了全球媒体与跨国媒体的差异,以及跨国媒体如何促进社会文化融合。 - 社会文化整合的概念通过Ferdinand Tonnies的Gemeinshaft概念进行阐述,强调了跨国媒体在形成和维持社区共同身份中的作用。 - 分析了“社区”这一概念在跨国媒体影响下的演变,可能涉及社区成员间交流、价值观的变化和互动模式的重塑。 3. 研究计划与章节总结 (30-39) - 研究计划详细列出了后续章节的结构,可能包括对斯里兰卡特定乡村社区的实地考察、数据分析、以及结果的解读和讨论。 - 章节总结部分可能回顾了前面的理论基础,并预示了接下来将要深入研究的具体内容。 通过这份论文,作者试图通过细致的社会学视角,深入理解跨国媒体如何在南亚农村群体中扮演着连接、信息流通和文化融合的角色,以及这种角色如何塑造和影响他们的日常生活和社会关系。对于理解全球化进程中媒体的力量以及它如何塑造边缘化社区的动态变化,此篇研究具有重要的理论价值和实践意义。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依