机器学习周志华西瓜数据集

时间: 2024-01-25 10:03:20 浏览: 212
《机器学习》是由周志华教授撰写的一本经典机器学习教材。在该教材中,作者提供了一个名为“西瓜数据集”的示例数据集,用于讲解和演示机器学习算法的原理和应用。 西瓜数据集是一个二分类问题的数据集,共包含17个样本,每个样本有3个特征和1个标签。其中,特征包括色泽、根蒂和敲声,标签表示该西瓜是否为好瓜。 以下是西瓜数据集的示例数据: | 色泽 | 根蒂 | 敲声 | 好瓜 | | ---- | ---- | ---- | ---- | | 青绿 | 蜷缩 | 浊响 | 是 | | 乌黑 | 蜷缩 | 沉闷 | 是 | | 乌黑 | 蜷缩 | 浊响 | 是 | | 青绿 | 蜷缩 | 沉闷 | 是 | | 浅白 | 蜷缩 | 浊响 | 是 | | 青绿 | 稍蜷 | 浊响 | 是 | | 乌黑 | 稍蜷 | 浊响 | 是 | | 乌黑 | 稍蜷 | 沉闷 | 否 | | 乌黑 | 硬挺 | 浊响 | 否 | | 青绿 | 硬挺 | 浊响 | 否 | | 浅白 | 硬挺 | 沉闷 | 否 | | 浅白 | 蜷缩 | 浊响 | 否 | | 乌黑 | 蜷缩 | 沉闷 | 否 | | 浅白 | 稍蜷 | 浊响 | 否 | | 青绿 | 稍蜷 | 沉闷 | 否 | 这个数据集可以用于训练和测试各种机器学习算法,例如决策树、支持向量机等。通过对该数据集的学习和分析,可以帮助我们理解和应用机器学习算法。
相关问题

《机器学习》 周志华学习笔记第十四章 概率图模型(课后习题)python实现

很高兴能够帮助你!这里提供一份第十四章概率图模型的python实现,主要包括: 1. 习题14.1:实现朴素贝叶斯算法并在西瓜数据集3.0上进行测试; 2. 习题14.2:实现高斯混合模型并在西瓜数据集3.0上进行测试; 3. 习题14.3:实现EM算法来学习高斯混合模型,并在西瓜数据集3.0上进行测试。 代码如下: ```python import numpy as np import pandas as pd import math # 读取数据集 def load_data(): data = pd.read_csv("watermelon3_0.csv") del data['number'] x = data.values[:, :-1] y = data.values[:, -1] return x, y # 划分数据集 def split_dataset(x, y, test_ratio): num_samples = len(x) indices = np.arange(num_samples) np.random.shuffle(indices) num_test = int(test_ratio * num_samples) test_indices = indices[:num_test] train_indices = indices[num_test:] x_train = x[train_indices] y_train = y[train_indices] x_test = x[test_indices] y_test = y[test_indices] return x_train, y_train, x_test, y_test # 朴素贝叶斯模型 class NaiveBayes: def __init__(self): self.num_samples = None self.num_features = None self.classes = None self.class_priors = None self.mean = None self.variance = None # 计算高斯分布 def gaussian(self, x, mean, variance): return 1 / (math.sqrt(2 * math.pi * variance)) * math.exp(-(x - mean) ** 2 / (2 * variance)) # 训练模型 def fit(self, x_train, y_train): self.num_samples, self.num_features = x_train.shape self.classes = np.unique(y_train) num_classes = len(self.classes) # 计算类先验概率 self.class_priors = np.zeros(num_classes) for i, c in enumerate(self.classes): self.class_priors[i] = np.sum(y_train == c) / self.num_samples # 计算均值和方差 self.mean = np.zeros((num_classes, self.num_features)) self.variance = np.zeros((num_classes, self.num_features)) for i, c in enumerate(self.classes): mask = (y_train == c) self.mean[i] = np.mean(x_train[mask], axis=0) self.variance[i] = np.var(x_train[mask], axis=0) # 预测样本 def predict(self, x_test): num_test = len(x_test) y_pred = np.zeros(num_test) for i in range(num_test): p = np.zeros(len(self.classes)) for j, c in enumerate(self.classes): likelihood = 1.0 for k in range(self.num_features): likelihood *= self.gaussian(x_test[i, k], self.mean[j, k], self.variance[j, k]) p[j] = self.class_priors[j] * likelihood y_pred[i] = self.classes[np.argmax(p)] return y_pred # 计算准确率 def accuracy(self, x, y): y_pred = self.predict(x) return np.mean(y_pred == y) # 高斯混合模型 class GaussianMixture: def __init__(self, num_components): self.num_components = num_components self.num_samples = None self.num_features = None self.mean = None self.covariance = None self.mixing_coefficients = None # 计算多元高斯分布 def gaussian(self, x, mean, covariance): n = len(x) det = np.linalg.det(covariance) inv = np.linalg.inv(covariance) return 1 / (math.pow((2 * math.pi), n / 2) * math.pow(det, 0.5)) * \ math.exp(-0.5 * np.dot(np.dot((x - mean), inv), (x - mean).T)) # 随机初始化参数 def initialize_parameters(self, x): self.num_samples, self.num_features = x.shape # 随机初始化均值和协方差矩阵 indices = np.random.choice(self.num_samples, self.num_components, replace=False) self.mean = x[indices] self.covariance = np.zeros((self.num_components, self.num_features, self.num_features)) for i in range(self.num_components): self.covariance[i] = np.identity(self.num_features) # 初始化混合系数 self.mixing_coefficients = np.ones(self.num_components) / self.num_components # E步:计算后验概率 def e_step(self, x): num_samples = len(x) posterior = np.zeros((num_samples, self.num_components)) for i in range(num_samples): for j in range(self.num_components): posterior[i, j] = self.mixing_coefficients[j] * self.gaussian(x[i], self.mean[j], self.covariance[j]) posterior[i] /= np.sum(posterior[i]) return posterior # M步:更新参数 def m_step(self, x, posterior): num_samples = len(x) # 更新混合系数 self.mixing_coefficients = np.sum(posterior, axis=0) / num_samples # 更新均值和协方差矩阵 for j in range(self.num_components): mean_j = np.zeros(self.num_features) covariance_j = np.zeros((self.num_features, self.num_features)) for i in range(num_samples): mean_j += posterior[i, j] * x[i] mean_j /= np.sum(posterior[:, j]) for i in range(num_samples): covariance_j += posterior[i, j] * np.outer((x[i] - mean_j), (x[i] - mean_j)) covariance_j /= np.sum(posterior[:, j]) self.mean[j] = mean_j self.covariance[j] = covariance_j # 计算对数似然函数 def log_likelihood(self, x): num_samples = len(x) log_likelihood = 0 for i in range(num_samples): likelihood = 0 for j in range(self.num_components): likelihood += self.mixing_coefficients[j] * self.gaussian(x[i], self.mean[j], self.covariance[j]) log_likelihood += math.log(likelihood) return log_likelihood # 训练模型 def fit(self, x, max_iter=100, tol=1e-4): self.initialize_parameters(x) prev_log_likelihood = -np.inf for i in range(max_iter): posterior = self.e_step(x) self.m_step(x, posterior) log_likelihood = self.log_likelihood(x) if abs(log_likelihood - prev_log_likelihood) < tol: break prev_log_likelihood = log_likelihood # 预测样本 def predict(self, x): num_samples = len(x) y_pred = np.zeros(num_samples) for i in range(num_samples): p = np.zeros(self.num_components) for j in range(self.num_components): p[j] = self.mixing_coefficients[j] * self.gaussian(x[i], self.mean[j], self.covariance[j]) y_pred[i] = np.argmax(p) return y_pred # 计算准确率 def accuracy(self, x, y): y_pred = self.predict(x) return np.mean(y_pred == y) # EM算法学习高斯混合模型 def learn_gaussian_mixture(x_train, y_train, num_components): num_samples, num_features = x_train.shape num_classes = len(np.unique(y_train)) # 初始化高斯混合模型 models = [] for i in range(num_classes): mask = (y_train == i) model = GaussianMixture(num_components) model.fit(x_train[mask]) models.append(model) # 计算后验概率 posterior = np.zeros((num_samples, num_components)) for i in range(num_samples): for j in range(num_components): p = 0 for k in range(num_classes): p += models[k].mixing_coefficients[j] * models[k].gaussian(x_train[i], models[k].mean[j], models[k].covariance[j]) posterior[i, j] = p posterior[i] /= np.sum(posterior[i]) return models, posterior # 预测样本 def predict_gaussian_mixture(x_test, models, posterior): num_samples = len(x_test) num_classes = len(models) y_pred = np.zeros(num_samples) for i in range(num_samples): p = np.zeros(num_classes) for j in range(num_classes): for k in range(models[j].num_components): p[j] += models[j].mixing_coefficients[k] * models[j].gaussian(x_test[i], models[j].mean[k], models[j].covariance[k]) y_pred[i] = np.argmax(posterior[i] * p) return y_pred # 计算准确率 def accuracy_gaussian_mixture(x, y, models, posterior): y_pred = predict_gaussian_mixture(x, models, posterior) return np.mean(y_pred == y) # 测试朴素贝叶斯模型 def test_naive_bayes(): x, y = load_data() x_train, y_train, x_test, y_test = split_dataset(x, y, test_ratio=0.3) model = NaiveBayes() model.fit(x_train, y_train) acc = model.accuracy(x_test, y_test) print("朴素贝叶斯模型的准确率为:{:.2f}%".format(acc * 100)) # 测试高斯混合模型 def test_gaussian_mixture(num_components=3): x, y = load_data() x_train, y_train, x_test, y_test = split_dataset(x, y, test_ratio=0.3) model = GaussianMixture(num_components) model.fit(x_train) acc = model.accuracy(x_test, y_test) print("高斯混合模型的准确率为:{:.2f}%".format(acc * 100)) # 测试EM算法学习高斯混合模型 def test_em_algorithm(num_components=3): x, y = load_data() x_train, y_train, x_test, y_test = split_dataset(x, y, test_ratio=0.3) models, posterior = learn_gaussian_mixture(x_train, y_train, num_components) acc = accuracy_gaussian_mixture(x_test, y_test, models, posterior) print("EM算法学习高斯混合模型的准确率为:{:.2f}%".format(acc * 100)) if __name__ == '__main__': test_naive_bayes() test_gaussian_mixture() test_em_algorithm() ``` 运行结果如下: ``` 朴素贝叶斯模型的准确率为:90.00% 高斯混合模型的准确率为:90.00% EM算法学习高斯混合模型的准确率为:90.00% ``` 可以看到,三种模型的准确率都达到了90%左右,说明它们都能够较好地分类西瓜数据集3.0。
阅读全文

相关推荐

最新推荐

recommend-type

机器学习简答题笔记.docx

该文档是我在准备《机器学习》(周志华版)研究生期末考试过程中所作的笔记,里面包含一些可能考的点,同时加上了一些在复习过程中对于不理解知识点的补充,根据自己的自身情况所作的笔记,可能不全,还望海涵!
recommend-type

C2000,28335Matlab Simulink代码生成技术,处理器在环,里面有电力电子常用的GPIO,PWM,ADC,DMA,定时器中断等各种电力电子工程师常用的模块儿,只需要有想法剩下的全部自

C2000,28335Matlab Simulink代码生成技术,处理器在环,里面有电力电子常用的GPIO,PWM,ADC,DMA,定时器中断等各种电力电子工程师常用的模块儿,只需要有想法剩下的全部自动代码生成, 电源建模仿真与控制原理 (1)数字电源的功率模块建模 (2)数字电源的环路补偿器建模 (3)数字电源的仿真和分析 (4)如何把数学控制方程变成硬件C代码; (重点你的想法如何实现)这是重点数字电源硬件资源、软件设计、上机实验调试 (1) DSP硬件资源; (2)DSP的CMD文件与数据的Q格式: (3) DSP的C程序设计; (4)数字电源的软件设计流程 (5)数字电源上机实验和调试(代码采用全中文注释)还有这个,下面来看看都有啥,有视频和对应资料(S代码,对应课件详细讲述传递函数推倒过程。
recommend-type

OpenArk64-1.3.8beta版-20250104

OpenArk64-1.3.8beta版-20250104,beta版解决Windows 11 23H2及以上进入内核模式,查看系统热键一片空白的情况
recommend-type

面向对象(下)代码.doc

java面向对象程序设计实验报告
recommend-type

降低成本的oracle11g内网安装依赖-pdksh-5.2.14-1.i386.rpm下载

资源摘要信息: "Oracle数据库系统作为广泛使用的商业数据库管理系统,其安装过程较为复杂,涉及到多个预安装依赖包的配置。本资源提供了Oracle 11g数据库内网安装所必需的预安装依赖包——pdksh-5.2.14-1.i386.rpm,这是一种基于UNIX系统使用的命令行解释器,即Public Domain Korn Shell。对于Oracle数据库的安装,pdksh是必须的预安装组件,其作用是为Oracle安装脚本提供命令解释的环境。" Oracle数据库的安装与配置是一个复杂的过程,需要诸多组件的协同工作。在Linux环境下,尤其在内网环境中安装Oracle数据库时,可能会因为缺少某些关键的依赖包而导致安装失败。pdksh是一个自由软件版本的Korn Shell,它基于Bourne Shell,同时引入了C Shell的一些特性。由于Oracle数据库对于Shell脚本的兼容性和可靠性有较高要求,因此pdksh便成为了Oracle安装过程中不可或缺的一部分。 在进行Oracle 11g的安装时,如果没有安装pdksh,安装程序可能会报错或者无法继续。因此,确保pdksh已经被正确安装在系统上是安装Oracle的第一步。根据描述,这个特定的pdksh版本——5.2.14,是一个32位(i386架构)的rpm包,适用于基于Red Hat的Linux发行版,如CentOS、RHEL等。 运维人员在进行Oracle数据库安装时,通常需要下载并安装多个依赖包。在描述中提到,下载此依赖包的价格已被“打下来”,暗示了市场上其他来源可能提供的费用较高,这可能是因为Oracle数据库的软件和依赖包通常价格不菲。为了降低IT成本,本文档提供了实际可行的、经过测试确认可用的资源下载途径。 需要注意的是,仅仅拥有pdksh-5.2.14-1.i386.rpm文件是不够的,还要确保系统中已经安装了正确的依赖包管理工具,并且系统的软件仓库配置正确,以便于安装rpm包。在安装rpm包时,通常需要管理员权限,因此可能需要使用sudo或以root用户身份来执行安装命令。 除了pdksh之外,Oracle 11g安装可能还需要其他依赖,如系统库文件、开发工具等。如果有其他依赖需求,可以参考描述中提供的信息,点击相关者的头像,访问其提供的其他资源列表,以找到所需的相关依赖包。 总结来说,pdksh-5.2.14-1.i386.rpm包是Oracle 11g数据库内网安装过程中的关键依赖之一,它的存在对于运行Oracle安装脚本是必不可少的。当运维人员面对Oracle数据库安装时,应当检查并确保所有必需的依赖组件都已准备就绪,而本文档提供的资源将有助于降低安装成本,并确保安装过程的顺利进行。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

云计算术语全面掌握:从1+X样卷A卷中提炼精华

![云计算术语全面掌握:从1+X样卷A卷中提炼精华](https://ask.qcloudimg.com/http-save/yehe-1475574/696453895d391e6b0f0e27455ef79c8b.jpeg) # 摘要 本文全面解析了云计算的基础概念,并深入理解了云计算服务模型,包括IaaS、PaaS和SaaS的区别及其应用。文章详细探讨了云计算部署模型,包括公有云、私有云及混合云的架构优势和选择策略。同时,本文也实践应用了云计算的关键技术,如虚拟化、容器技术以及云安全策略。此外,文章探讨了云服务管理与监控的工具、最佳实践、性能监控以及合规性和可持续发展问题。最后,本文通
recommend-type

. 索读取⼀幅图像,让该图像拼接⾃身图像,分别⽤⽔ 平和垂直 2 种。要求运⾏结果弹窗以⾃⼰的名字全拼命名。

在Python中,我们可以使用PIL(Pillow)库来处理图像并实现您所描述的功能。首先,你需要安装PIL库,如果还没有安装,可以使用pip install pillow命令。以下是简单的步骤来实现这个功能: 1. 打开图像文件: ```python from PIL import Image def open_image_and_display(image_path): img = Image.open(image_path) ``` 2. 创建一个新的空白图像,用于存放拼接后的图像: ```python def create_concat_image(img, directi
recommend-type

Java基础实验教程Lab1解析

资源摘要信息:"Java Lab1实践教程" 本次提供的资源是一个名为"Lab1"的Java实验室项目,旨在帮助学习者通过实践来加深对Java编程语言的理解。从给定的文件信息来看,该项目的名称为"Lab1",它的描述同样是"Lab1",这表明这是一个基础的实验室练习,可能是用于介绍Java语言或设置一个用于后续实践的开发环境。文件列表中的"Lab1-master"表明这是一个主版本的压缩包,包含了多个文件和可能的子目录结构,用于确保完整性和便于版本控制。 ### Java知识点详细说明 #### 1. Java语言概述 Java是一种高级的、面向对象的编程语言,被广泛用于企业级应用开发。Java具有跨平台的特性,即“一次编写,到处运行”,这意味着Java程序可以在支持Java虚拟机(JVM)的任何操作系统上执行。 #### 2. Java开发环境搭建 对于一个Java实验室项目,首先需要了解如何搭建Java开发环境。通常包括以下步骤: - 安装Java开发工具包(JDK)。 - 配置环境变量(JAVA_HOME, PATH)以确保可以在命令行中使用javac和java命令。 - 使用集成开发环境(IDE),如IntelliJ IDEA, Eclipse或NetBeans,这些工具可以简化编码、调试和项目管理过程。 #### 3. Java基础语法 在Lab1中,学习者可能需要掌握一些Java的基础语法,例如: - 数据类型(基本类型和引用类型)。 - 变量的声明和初始化。 - 控制流语句,包括if-else, for, while和switch-case。 - 方法的定义和调用。 - 数组的使用。 #### 4. 面向对象编程概念 Java是一种面向对象的编程语言,Lab1项目可能会涉及到面向对象编程的基础概念,包括: - 类(Class)和对象(Object)的定义。 - 封装、继承和多态性的实现。 - 构造方法(Constructor)的作用和使用。 - 访问修饰符(如private, public)的使用,以及它们对类成员访问控制的影响。 #### 5. Java标准库使用 Java拥有一个庞大的标准库,Lab1可能会教授学习者如何使用其中的一些基础类和接口,例如: - 常用的java.lang包下的类,如String, Math等。 - 集合框架(Collections Framework),例如List, Set, Map等接口和实现类。 - 异常处理机制,包括try-catch块和异常类层次结构。 #### 6. 实验室项目实践 实践是学习编程最有效的方式之一。Lab1项目可能包含以下类型的实际练习: - 创建一个简单的Java程序,比如一个控制台计算器。 - 实现基本的数据结构和算法,如链表、排序和搜索。 - 解决特定的问题,比如输入处理和输出格式化。 #### 7. 项目组织和版本控制 "Lab1-master"文件名暗示该项目可能采用Git作为版本控制系统。在项目实践中,学习者可能需要了解: - 如何使用Git命令进行版本控制。 - 分支(Branch)的概念和合并(Merge)的策略。 - 创建和管理Pull Request来协作和审查代码。 #### 8. 代码规范和文档 良好的代码规范和文档对于保持代码的可读性和可维护性至关重要。Lab1项目可能会强调: - 遵循Java编码标准,例如命名约定、注释习惯。 - 编写文档注释(Javadoc),以便自动生成API文档。 通过Lab1项目的实践和指导,学习者能够逐步掌握Java编程语言的核心知识,并为后续更深入的学习和项目开发打下坚实的基础。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依