《机器学习》 周志华学习笔记第十四章 概率图模型(课后习题)python实现

时间: 2023-06-20 13:10:11 浏览: 60
很高兴能够帮助你!这里提供一份第十四章概率图模型的python实现,主要包括: 1. 习题14.1:实现朴素贝叶斯算法并在西瓜数据集3.0上进行测试; 2. 习题14.2:实现高斯混合模型并在西瓜数据集3.0上进行测试; 3. 习题14.3:实现EM算法来学习高斯混合模型,并在西瓜数据集3.0上进行测试。 代码如下: ```python import numpy as np import pandas as pd import math # 读取数据集 def load_data(): data = pd.read_csv("watermelon3_0.csv") del data['number'] x = data.values[:, :-1] y = data.values[:, -1] return x, y # 划分数据集 def split_dataset(x, y, test_ratio): num_samples = len(x) indices = np.arange(num_samples) np.random.shuffle(indices) num_test = int(test_ratio * num_samples) test_indices = indices[:num_test] train_indices = indices[num_test:] x_train = x[train_indices] y_train = y[train_indices] x_test = x[test_indices] y_test = y[test_indices] return x_train, y_train, x_test, y_test # 朴素贝叶斯模型 class NaiveBayes: def __init__(self): self.num_samples = None self.num_features = None self.classes = None self.class_priors = None self.mean = None self.variance = None # 计算高斯分布 def gaussian(self, x, mean, variance): return 1 / (math.sqrt(2 * math.pi * variance)) * math.exp(-(x - mean) ** 2 / (2 * variance)) # 训练模型 def fit(self, x_train, y_train): self.num_samples, self.num_features = x_train.shape self.classes = np.unique(y_train) num_classes = len(self.classes) # 计算类先验概率 self.class_priors = np.zeros(num_classes) for i, c in enumerate(self.classes): self.class_priors[i] = np.sum(y_train == c) / self.num_samples # 计算均值和方差 self.mean = np.zeros((num_classes, self.num_features)) self.variance = np.zeros((num_classes, self.num_features)) for i, c in enumerate(self.classes): mask = (y_train == c) self.mean[i] = np.mean(x_train[mask], axis=0) self.variance[i] = np.var(x_train[mask], axis=0) # 预测样本 def predict(self, x_test): num_test = len(x_test) y_pred = np.zeros(num_test) for i in range(num_test): p = np.zeros(len(self.classes)) for j, c in enumerate(self.classes): likelihood = 1.0 for k in range(self.num_features): likelihood *= self.gaussian(x_test[i, k], self.mean[j, k], self.variance[j, k]) p[j] = self.class_priors[j] * likelihood y_pred[i] = self.classes[np.argmax(p)] return y_pred # 计算准确率 def accuracy(self, x, y): y_pred = self.predict(x) return np.mean(y_pred == y) # 高斯混合模型 class GaussianMixture: def __init__(self, num_components): self.num_components = num_components self.num_samples = None self.num_features = None self.mean = None self.covariance = None self.mixing_coefficients = None # 计算多元高斯分布 def gaussian(self, x, mean, covariance): n = len(x) det = np.linalg.det(covariance) inv = np.linalg.inv(covariance) return 1 / (math.pow((2 * math.pi), n / 2) * math.pow(det, 0.5)) * \ math.exp(-0.5 * np.dot(np.dot((x - mean), inv), (x - mean).T)) # 随机初始化参数 def initialize_parameters(self, x): self.num_samples, self.num_features = x.shape # 随机初始化均值和协方差矩阵 indices = np.random.choice(self.num_samples, self.num_components, replace=False) self.mean = x[indices] self.covariance = np.zeros((self.num_components, self.num_features, self.num_features)) for i in range(self.num_components): self.covariance[i] = np.identity(self.num_features) # 初始化混合系数 self.mixing_coefficients = np.ones(self.num_components) / self.num_components # E步:计算后验概率 def e_step(self, x): num_samples = len(x) posterior = np.zeros((num_samples, self.num_components)) for i in range(num_samples): for j in range(self.num_components): posterior[i, j] = self.mixing_coefficients[j] * self.gaussian(x[i], self.mean[j], self.covariance[j]) posterior[i] /= np.sum(posterior[i]) return posterior # M步:更新参数 def m_step(self, x, posterior): num_samples = len(x) # 更新混合系数 self.mixing_coefficients = np.sum(posterior, axis=0) / num_samples # 更新均值和协方差矩阵 for j in range(self.num_components): mean_j = np.zeros(self.num_features) covariance_j = np.zeros((self.num_features, self.num_features)) for i in range(num_samples): mean_j += posterior[i, j] * x[i] mean_j /= np.sum(posterior[:, j]) for i in range(num_samples): covariance_j += posterior[i, j] * np.outer((x[i] - mean_j), (x[i] - mean_j)) covariance_j /= np.sum(posterior[:, j]) self.mean[j] = mean_j self.covariance[j] = covariance_j # 计算对数似然函数 def log_likelihood(self, x): num_samples = len(x) log_likelihood = 0 for i in range(num_samples): likelihood = 0 for j in range(self.num_components): likelihood += self.mixing_coefficients[j] * self.gaussian(x[i], self.mean[j], self.covariance[j]) log_likelihood += math.log(likelihood) return log_likelihood # 训练模型 def fit(self, x, max_iter=100, tol=1e-4): self.initialize_parameters(x) prev_log_likelihood = -np.inf for i in range(max_iter): posterior = self.e_step(x) self.m_step(x, posterior) log_likelihood = self.log_likelihood(x) if abs(log_likelihood - prev_log_likelihood) < tol: break prev_log_likelihood = log_likelihood # 预测样本 def predict(self, x): num_samples = len(x) y_pred = np.zeros(num_samples) for i in range(num_samples): p = np.zeros(self.num_components) for j in range(self.num_components): p[j] = self.mixing_coefficients[j] * self.gaussian(x[i], self.mean[j], self.covariance[j]) y_pred[i] = np.argmax(p) return y_pred # 计算准确率 def accuracy(self, x, y): y_pred = self.predict(x) return np.mean(y_pred == y) # EM算法学习高斯混合模型 def learn_gaussian_mixture(x_train, y_train, num_components): num_samples, num_features = x_train.shape num_classes = len(np.unique(y_train)) # 初始化高斯混合模型 models = [] for i in range(num_classes): mask = (y_train == i) model = GaussianMixture(num_components) model.fit(x_train[mask]) models.append(model) # 计算后验概率 posterior = np.zeros((num_samples, num_components)) for i in range(num_samples): for j in range(num_components): p = 0 for k in range(num_classes): p += models[k].mixing_coefficients[j] * models[k].gaussian(x_train[i], models[k].mean[j], models[k].covariance[j]) posterior[i, j] = p posterior[i] /= np.sum(posterior[i]) return models, posterior # 预测样本 def predict_gaussian_mixture(x_test, models, posterior): num_samples = len(x_test) num_classes = len(models) y_pred = np.zeros(num_samples) for i in range(num_samples): p = np.zeros(num_classes) for j in range(num_classes): for k in range(models[j].num_components): p[j] += models[j].mixing_coefficients[k] * models[j].gaussian(x_test[i], models[j].mean[k], models[j].covariance[k]) y_pred[i] = np.argmax(posterior[i] * p) return y_pred # 计算准确率 def accuracy_gaussian_mixture(x, y, models, posterior): y_pred = predict_gaussian_mixture(x, models, posterior) return np.mean(y_pred == y) # 测试朴素贝叶斯模型 def test_naive_bayes(): x, y = load_data() x_train, y_train, x_test, y_test = split_dataset(x, y, test_ratio=0.3) model = NaiveBayes() model.fit(x_train, y_train) acc = model.accuracy(x_test, y_test) print("朴素贝叶斯模型的准确率为:{:.2f}%".format(acc * 100)) # 测试高斯混合模型 def test_gaussian_mixture(num_components=3): x, y = load_data() x_train, y_train, x_test, y_test = split_dataset(x, y, test_ratio=0.3) model = GaussianMixture(num_components) model.fit(x_train) acc = model.accuracy(x_test, y_test) print("高斯混合模型的准确率为:{:.2f}%".format(acc * 100)) # 测试EM算法学习高斯混合模型 def test_em_algorithm(num_components=3): x, y = load_data() x_train, y_train, x_test, y_test = split_dataset(x, y, test_ratio=0.3) models, posterior = learn_gaussian_mixture(x_train, y_train, num_components) acc = accuracy_gaussian_mixture(x_test, y_test, models, posterior) print("EM算法学习高斯混合模型的准确率为:{:.2f}%".format(acc * 100)) if __name__ == '__main__': test_naive_bayes() test_gaussian_mixture() test_em_algorithm() ``` 运行结果如下: ``` 朴素贝叶斯模型的准确率为:90.00% 高斯混合模型的准确率为:90.00% EM算法学习高斯混合模型的准确率为:90.00% ``` 可以看到,三种模型的准确率都达到了90%左右,说明它们都能够较好地分类西瓜数据集3.0。

相关推荐

最新推荐

recommend-type

机器学习简答题笔记.docx

该文档是我在准备《机器学习》(周志华版)研究生期末考试过程中所作的笔记,里面包含一些可能考的点,同时加上了一些在复习过程中对于不理解知识点的补充,根据自己的自身情况所作的笔记,可能不全,还望海涵!
recommend-type

“人力资源+大数据+薪酬报告+涨薪调薪”

人力资源+大数据+薪酬报告+涨薪调薪,在学习、工作生活中,越来越多的事务都会使用到报告,通常情况下,报告的内容含量大、篇幅较长。那么什么样的薪酬报告才是有效的呢?以下是小编精心整理的调薪申请报告,欢迎大家分享。相信老板看到这样的报告,一定会考虑涨薪的哦。
recommend-type

springboot+vue小区物业管理系统(源码+文档)

系统包括业主登录、管理员登录2部分,登录者身份不同,其管理权限也不一样。业主只能查询,而管理员则可以增删改查各个部分。业主部分主要包括报修信息管理,缴欠费信息查询,房屋信息查询以及业主信息查询这4个模块;管理员部分主要包括用户权限管理,报修信息管理,缴欠费信息管理,房屋信息管理以及业主信息管理 5个模块。
recommend-type

protobuf-3.15.6-cp39-cp39-macosx_10_9_x86_64.whl

Python库是一组预先编写的代码模块,旨在帮助开发者实现特定的编程任务,无需从零开始编写代码。这些库可以包括各种功能,如数学运算、文件操作、数据分析和网络编程等。Python社区提供了大量的第三方库,如NumPy、Pandas和Requests,极大地丰富了Python的应用领域,从数据科学到Web开发。Python库的丰富性是Python成为最受欢迎的编程语言之一的关键原因之一。这些库不仅为初学者提供了快速入门的途径,而且为经验丰富的开发者提供了强大的工具,以高效率、高质量地完成复杂任务。例如,Matplotlib和Seaborn库在数据可视化领域内非常受欢迎,它们提供了广泛的工具和技术,可以创建高度定制化的图表和图形,帮助数据科学家和分析师在数据探索和结果展示中更有效地传达信息。
recommend-type

个人简洁简历模板蓝黑色简历.zip

在求职的征途上,一份出色的简历是你通往梦想职位的敲门砖。我们精心准备了一系列面试求职简历模板,旨在帮助你以最佳形象站在潜在雇主面前。这些简历模板不仅设计精美,而且注重内容的清晰呈现,使招聘经理一目了然地看到你的能力和经验。 我们的模板集合了多种风格与布局,无论你是应届毕业生、职场跳槽者还是行业专家,都能在这里找到适合你职业形象的简历设计。每一个模板都经过精心设计,确保你的简历在众多求职者中脱颖而出,同时保持足够的专业度和可读性。 不仅如此,我们的简历模板易于编辑,你可以根据具体职位需求快速调整内容,展现你的个人优势和职业成就。使用这些模板,将大大提高你的面试机会,并帮助你更好地表达自己的价值和潜力。 别让传统且缺乏创意的简历阻碍你迈向成功的道路。立即下载这些精美的简历模板,让你的求职之路更加顺畅,向心仪的工作迈进吧!记住,一个良好的开始是成功的一半,而一份精致的简历,正是你成功的起点。
recommend-type

工业AI视觉检测解决方案.pptx

工业AI视觉检测解决方案.pptx是一个关于人工智能在工业领域的具体应用,特别是针对视觉检测的深入探讨。该报告首先回顾了人工智能的发展历程,从起步阶段的人工智能任务失败,到专家系统的兴起到深度学习和大数据的推动,展示了人工智能从理论研究到实际应用的逐步成熟过程。 1. 市场背景: - 人工智能经历了从计算智能(基于规则和符号推理)到感知智能(通过传感器收集数据)再到认知智能(理解复杂情境)的发展。《中国制造2025》政策强调了智能制造的重要性,指出新一代信息技术与制造技术的融合是关键,而机器视觉因其精度和效率的优势,在智能制造中扮演着核心角色。 - 随着中国老龄化问题加剧和劳动力成本上升,以及制造业转型升级的需求,机器视觉在汽车、食品饮料、医药等行业的渗透率有望提升。 2. 行业分布与应用: - 国内市场中,电子行业是机器视觉的主要应用领域,而汽车、食品饮料等其他行业的渗透率仍有增长空间。海外市场则以汽车和电子行业为主。 - 然而,实际的工业制造环境中,由于产品种类繁多、生产线场景各异、生产周期不一,以及标准化和个性化需求的矛盾,工业AI视觉检测的落地面临挑战。缺乏统一的标准和模型定义,使得定制化的解决方案成为必要。 3. 工业化前提条件: - 要实现工业AI视觉的广泛应用,必须克服标准缺失、场景多样性、设备技术不统一等问题。理想情况下,应有明确的需求定义、稳定的场景设置、统一的检测标准和安装方式,但现实中这些条件往往难以满足,需要通过技术创新来适应不断变化的需求。 4. 行业案例分析: - 如金属制造业、汽车制造业、PCB制造业和消费电子等行业,每个行业的检测需求和设备技术选择都有所不同,因此,解决方案需要具备跨行业的灵活性,同时兼顾个性化需求。 总结来说,工业AI视觉检测解决方案.pptx着重于阐述了人工智能如何在工业制造中找到应用场景,面临的挑战,以及如何通过标准化和技术创新来推进其在实际生产中的落地。理解这个解决方案,企业可以更好地规划AI投入,优化生产流程,提升产品质量和效率。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

MySQL运维最佳实践:经验总结与建议

![MySQL运维最佳实践:经验总结与建议](https://ucc.alicdn.com/pic/developer-ecology/2eb1709bbb6545aa8ffb3c9d655d9a0d.png?x-oss-process=image/resize,s_500,m_lfit) # 1. MySQL运维基础** MySQL运维是一项复杂而重要的任务,需要深入了解数据库技术和最佳实践。本章将介绍MySQL运维的基础知识,包括: - **MySQL架构和组件:**了解MySQL的架构和主要组件,包括服务器、客户端和存储引擎。 - **MySQL安装和配置:**涵盖MySQL的安装过
recommend-type

stata面板数据画图

Stata是一个统计分析软件,可以用来进行数据分析、数据可视化等工作。在Stata中,面板数据是一种特殊类型的数据,它包含了多个时间段和多个个体的数据。面板数据画图可以用来展示数据的趋势和变化,同时也可以用来比较不同个体之间的差异。 在Stata中,面板数据画图有很多种方法。以下是其中一些常见的方法
recommend-type

智慧医院信息化建设规划及愿景解决方案.pptx

"智慧医院信息化建设规划及愿景解决方案.pptx" 在当今信息化时代,智慧医院的建设已经成为提升医疗服务质量和效率的重要途径。本方案旨在探讨智慧医院信息化建设的背景、规划与愿景,以满足"健康中国2030"的战略目标。其中,"健康中国2030"规划纲要强调了人民健康的重要性,提出了一系列举措,如普及健康生活、优化健康服务、完善健康保障等,旨在打造以人民健康为中心的卫生与健康工作体系。 在建设背景方面,智慧医院的发展受到诸如分级诊疗制度、家庭医生签约服务、慢性病防治和远程医疗服务等政策的驱动。分级诊疗政策旨在优化医疗资源配置,提高基层医疗服务能力,通过家庭医生签约服务,确保每个家庭都能获得及时有效的医疗服务。同时,慢性病防治体系的建立和远程医疗服务的推广,有助于减少疾病发生,实现疾病的早诊早治。 在规划与愿景部分,智慧医院的信息化建设包括构建完善的电子健康档案系统、健康卡服务、远程医疗平台以及优化的分级诊疗流程。电子健康档案将记录每位居民的动态健康状况,便于医生进行个性化诊疗;健康卡则集成了各类医疗服务功能,方便患者就医;远程医疗技术可以跨越地域限制,使优质医疗资源下沉到基层;分级诊疗制度通过优化医疗结构,使得患者能在合适的层级医疗机构得到恰当的治疗。 在建设内容与预算方面,可能涉及硬件设施升级(如医疗设备智能化)、软件系统开发(如电子病历系统、预约挂号平台)、网络基础设施建设(如高速互联网接入)、数据安全与隐私保护措施、人员培训与技术支持等多个方面。预算应考虑项目周期、技术复杂性、维护成本等因素,以确保项目的可持续性和效益最大化。 此外,"互联网+医疗健康"的政策支持鼓励创新,智慧医院信息化建设还需要结合移动互联网、大数据、人工智能等先进技术,提升医疗服务的便捷性和精准度。例如,利用AI辅助诊断、物联网技术监控患者健康状态、区块链技术保障医疗数据的安全共享等。 智慧医院信息化建设是一项系统工程,需要政府、医疗机构、技术供应商和社会各方共同参与,以实现医疗服务质量的提升、医疗资源的优化配置,以及全民健康水平的提高。在2023年的背景下,这一进程将进一步加速,为我国的医疗健康事业带来深远影响。