python语言实现 (1)实现一个简单的有监督学习中的判定树算法(2) 实现一个简单的有监督学习中的朴素贝叶斯算法(3)实现一个无监督学习中的K近邻算法

时间: 2024-03-06 18:50:16 浏览: 12
好的,我会分别回答你的三个问题: 1. 实现一个简单的有监督学习中的判定树算法: ```python class DecisionTree: def __init__(self): self.tree = {} def fit(self, X, y): self.tree = self.build_tree(X, y) def predict(self, X): return [self.predict_instance(x, self.tree) for x in X] def build_tree(self, X, y): n_samples, n_features = X.shape if n_samples == 0: return None if len(set(y)) == 1: return y[0] best_feature, best_threshold = self.get_best_split(X, y) left_indices = X[:, best_feature] < best_threshold right_indices = X[:, best_feature] >= best_threshold left_tree = self.build_tree(X[left_indices], y[left_indices]) right_tree = self.build_tree(X[right_indices], y[right_indices]) return {'feature': best_feature, 'threshold': best_threshold, 'left_tree': left_tree, 'right_tree': right_tree} def get_best_split(self, X, y): best_feature = None best_threshold = None best_score = -1 for feature in range(X.shape[1]): feature_values = X[:, feature] possible_thresholds = np.unique(feature_values) for threshold in possible_thresholds: left_indices = feature_values < threshold right_indices = feature_values >= threshold if len(left_indices) == 0 or len(right_indices) == 0: continue left_y = y[left_indices] right_y = y[right_indices] score = self.gini_index(y, left_y, right_y) if score > best_score: best_score = score best_feature = feature best_threshold = threshold return best_feature, best_threshold def gini_index(self, y, left_y, right_y): p = len(left_y) / len(y) gini_left = 1 - sum([(np.sum(left_y == c) / len(left_y)) ** 2 for c in set(left_y)]) gini_right = 1 - sum([(np.sum(right_y == c) / len(right_y)) ** 2 for c in set(right_y)]) return p * gini_left + (1 - p) * gini_right def predict_instance(self, x, tree): if type(tree) != dict: return tree feature, threshold = tree['feature'], tree['threshold'] if x[feature] < threshold: return self.predict_instance(x, tree['left_tree']) else: return self.predict_instance(x, tree['right_tree']) ``` 2. 实现一个简单的有监督学习中的朴素贝叶斯算法: ```python class NaiveBayes: def __init__(self): self.classes = None self.priors = None self.means = None self.stds = None def fit(self, X, y): self.classes = np.unique(y) n_classes = len(self.classes) n_features = X.shape[1] self.priors = np.zeros(n_classes) self.means = np.zeros((n_classes, n_features)) self.stds = np.zeros((n_classes, n_features)) for i, c in enumerate(self.classes): X_c = X[y == c] self.priors[i] = X_c.shape[0] / X.shape[0] self.means[i] = X_c.mean(axis=0) self.stds[i] = X_c.std(axis=0) def predict(self, X): return [self.predict_instance(x) for x in X] def predict_instance(self, x): posteriors = [] for i, c in enumerate(self.classes): prior = np.log(self.priors[i]) class_conditional = np.sum(np.log(self.gaussian_pdf(x, self.means[i], self.stds[i]))) posterior = prior + class_conditional posteriors.append(posterior) return self.classes[np.argmax(posteriors)] def gaussian_pdf(self, x, mean, std): return (1 / (np.sqrt(2 * np.pi) * std)) * np.exp(-(x - mean) ** 2 / (2 * std ** 2)) ``` 3. 实现一个无监督学习中的K近邻算法: ```python class KNN: def __init__(self, k): self.k = k def fit(self, X): self.X = X def predict(self, X): return [self.predict_instance(x) for x in X] def predict_instance(self, x): distances = np.sqrt(np.sum((self.X - x) ** 2, axis=1)) nearest_indices = np.argsort(distances)[:self.k] nearest_labels = self.y[nearest_indices] return np.bincount(nearest_labels).argmax() ```

相关推荐

最新推荐

recommend-type

Python实现调用另一个路径下py文件中的函数方法总结

主要介绍了Python实现调用另一个路径下py文件中的函数方法,结合实例形式总结分析了Python针对不同文件夹中py文件调用操作的处理技巧与相关注意事项,需要的朋友可以参考下
recommend-type

Python实现保证只能运行一个脚本实例

主要介绍了Python实现保证只能运行一个脚本实例,本文直接给出实现代码,需要的朋友可以参考下
recommend-type

Python简单实现查找一个字符串中最长不重复子串的方法

主要介绍了Python简单实现查找一个字符串中最长不重复子串的方法,涉及Python针对字符串的简单遍历、运算等相关操作技巧,需要的朋友可以参考下
recommend-type

基于ID3决策树算法的实现(Python版)

下面小编就为大家带来一篇基于ID3决策树算法的实现(Python版)。小编觉得挺不错的,现在就分享给大家,也给大家做个参考。一起跟随小编过来看看吧
recommend-type

Python编程实现数学运算求一元二次方程的实根算法示例

主要介绍了Python编程实现数学运算求一元二次方程的实根算法,涉及Python数学运算求解方程的相关实现技巧,需要的朋友可以参考下
recommend-type

zigbee-cluster-library-specification

最新的zigbee-cluster-library-specification说明文档。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

实现实时数据湖架构:Kafka与Hive集成

![实现实时数据湖架构:Kafka与Hive集成](https://img-blog.csdnimg.cn/img_convert/10eb2e6972b3b6086286fc64c0b3ee41.jpeg) # 1. 实时数据湖架构概述** 实时数据湖是一种现代数据管理架构,它允许企业以低延迟的方式收集、存储和处理大量数据。与传统数据仓库不同,实时数据湖不依赖于预先定义的模式,而是采用灵活的架构,可以处理各种数据类型和格式。这种架构为企业提供了以下优势: - **实时洞察:**实时数据湖允许企业访问最新的数据,从而做出更明智的决策。 - **数据民主化:**实时数据湖使各种利益相关者都可
recommend-type

用matlab绘制高斯色噪声情况下的频率估计CRLB,其中w(n)是零均值高斯色噪声,w(n)=0.8*w(n-1)+e(n),e(n)服从零均值方差为se的高斯分布

以下是用matlab绘制高斯色噪声情况下频率估计CRLB的代码: ```matlab % 参数设置 N = 100; % 信号长度 se = 0.5; % 噪声方差 w = zeros(N,1); % 高斯色噪声 w(1) = randn(1)*sqrt(se); for n = 2:N w(n) = 0.8*w(n-1) + randn(1)*sqrt(se); end % 计算频率估计CRLB fs = 1; % 采样频率 df = 0.01; % 频率分辨率 f = 0:df:fs/2; % 频率范围 M = length(f); CRLB = zeros(M,1); for
recommend-type

JSBSim Reference Manual

JSBSim参考手册,其中包含JSBSim简介,JSBSim配置文件xml的编写语法,编程手册以及一些应用实例等。其中有部分内容还没有写完,估计有生之年很难看到完整版了,但是内容还是很有参考价值的。