def generate_L(data_set, k, min_support): """ Generate all frequent itemsets. Args: data_set: A list of transactions. Each transaction contains several items. k: Maximum number of items for all frequent itemsets. min_support: The minimum support. Returns: L: The list of Lk. support_data: A dictionary. The key is frequent itemset and the value is support. """ support_data = {} C1 = create_C1(data_set) L1 = generate_Lk_by_Ck(data_set, C1, min_support, support_data) Lksub1 = L1.copy() L = [] L.append(Lksub1) for i in range(2, k + 1): Ci = create_Ck(Lksub1, i) Li = generate_Lk_by_Ck(data_set, Ci, min_support, support_data) Lksub1 = Li.copy() L.append(Lksub1) return L, support_data
时间: 2024-03-19 22:42:13 浏览: 81
这段代码实现了Apriori算法中的频繁项集挖掘过程。Apriori算法是一种常见的关联规则挖掘算法,用于发现数据集中的频繁项集。
函数generate_L的输入参数包括数据集data_set、最大项数k和最小支持度min_support。其中,数据集data_set是一个列表,每个元素表示一条交易记录,其中包含多个项;最大项数k是指挖掘的频繁项集中最多包含的项数;最小支持度min_support是指一个项集在所有交易记录中出现的次数占比必须大于等于min_support才能被认为是频繁项集。
函数内部首先创建了一个空字典support_data,用于存储频繁项集及其支持度信息。然后调用函数create_C1创建初始候选项集C1,再调用函数generate_Lk_by_Ck根据C1生成频繁1项集L1。接着,将L1存储在列表L中,并将L1赋值给Lksub1,表示当前频繁项集的项数为1。
接下来,函数generate_L通过一个循环,依次生成包含2~k个项的频繁项集。在每次循环中,首先调用函数create_Ck根据Lksub1生成候选项集Ci,然后调用函数generate_Lk_by_Ck根据Ci生成频繁项集Li。将Li存储在列表L中,并将Li赋值给Lksub1,表示当前频繁项集的项数为i。最后,函数generate_L返回频繁项集列表L和支持度字典support_data。
相关问题
def generate_big_rules(L, support_data, min_conf): """ Generate big rules from frequent itemsets. Args: L: The list of Lk. support_data: A dictionary. The key is frequent itemset and the value is support. min_conf: Minimal confidence. Returns: big_rule_list: A list which contains all big rules. Each big rule is represented as a 3-tuple. """ big_rule_list = [] sub_set_list = [] for i in range(0, len(L)): for freq_set in L[i]: for sub_set in sub_set_list: if sub_set.issubset(freq_set): conf = support_data[freq_set] / support_data[freq_set - sub_set] big_rule = (freq_set - sub_set, sub_set, conf) if conf >= min_conf and big_rule not in big_rule_list: # print freq_set-sub_set, " => ", sub_set, "conf: ", conf big_rule_list.append(big_rule) sub_set_list.append(freq_set) return big_rule_list
这段代码实现了Apriori算法中的关联规则生成过程。在频繁项集挖掘结束后,可以根据频繁项集生成关联规则,并计算关联规则的置信度,筛选出满足最小置信度要求的强关联规则。
函数generate_big_rules的输入参数包括频繁项集列表L、支持度字典support_data和最小置信度min_conf。其中,频繁项集列表L是一个包含多个列表的列表,每个列表包含若干个频繁项集;支持度字典support_data是一个字典,存储频繁项集及其支持度信息;最小置信度min_conf是指一个关联规则的置信度必须大于等于min_conf才能被认为是强关联规则。
函数内部首先创建了一个空列表big_rule_list,用于存储所有满足要求的强关联规则。接着,创建了一个空列表sub_set_list,用于存储已经检查过的子集,避免重复计算。
通过两个嵌套的循环,对每个频繁项集及其子集进行遍历,计算置信度,并将满足要求的关联规则存储在big_rule_list中。具体来说,外层循环遍历每个频繁项集,内层循环遍历该频繁项集的所有子集。对于每个子集,计算该关联规则的置信度,如果大于等于min_conf并且该关联规则不在big_rule_list中,则将该关联规则加入big_rule_list中。
最后,函数generate_big_rules返回所有满足要求的强关联规则列表big_rule_list。每个关联规则被表示为一个3元组,包括规则的前件、后件以及置信度。
k_max = 2 min_support = 0.2 min_conf = 0.3 if __name__ == "__main__": """ Test """ data_set = load_data_set(df) L, support_data = generate_L(data_set, k=k_max, min_support=min_support) big_rules_list = generate_big_rules(L, support_data, min_conf=min_conf) for Lk in L: print("=" * 50) if len(Lk) > 0: print("frequent " + str(len(list(Lk)[0])) + "-itemsets\t\tsupport") print("=" * 50) for freq_set in Lk: print(freq_set, support_data[freq_set]) else: print("end") break print() print("Big Rules") print("=" * 50) if big_rules_list: for item in big_rules_list: print(item[0], "=>", item[1], "conf: ", item[2]) else: print("No Big Rules")
这段代码是关于关联规则挖掘的,其中 k_max、min_support 和 min_conf 分别表示最大项集大小、最小支持度和最小置信度,load_data_set() 函数和 generate_L() 函数是用来加载数据集和生成频繁项集的。generate_big_rules() 函数是用来生成关联规则的,最后的输出结果是生成的频繁项集和关联规则。
阅读全文