import numpy as np from sklearn.cluster import KMeans # 数据准备 data = np.array([ [100, 50, 20, 30, 80, 40, 10, 70], # 辽宁省的数据 [200, 150, 80, 60, 120, 100, 30, 90], # 浙江省的数据 [80, 60, 10, 20, 40, 30, 5, 50], # 河南省的数据 [50, 30, 5, 10, 25, 15, 3, 20], # 甘肃省的数据 [120, 80, 30, 40, 60, 50, 15, 40] # 青海省的数据 ]) # 数据标准化(可选,根据需要进行标准化处理) # data = (data - data.mean(axis=0)) / data.std(axis=0) # 使用K均值聚类算法进行分类 k = 5 # 分类的数量 kmeans = KMeans(n_clusters=k, random_state=0) labels = kmeans.fit_predict(data) # 打印分类结果 provinces = ["辽宁", "浙江", "河南", "甘肃", "青海"] for i, label in enumerate(labels): print(f"{provinces[i]}: 类别 {label}")生成相关图示

时间: 2023-07-02 14:08:33 浏览: 67
这段代码可以用来对省份数据进行 K 均值聚类,将省份划分为 k 个类别,并打印出每个省份所属的类别。 下面是一个简单的可视化示例,使用 matplotlib 库绘制一个散点图,不同颜色的点表示不同的类别,点的大小表示该省份的总数据量。代码如下: ```python import matplotlib.pyplot as plt # 绘制散点图 plt.scatter(data[:, 0], data[:, 1], s=data.sum(axis=1), c=labels) plt.xlabel("数据1") plt.ylabel("数据2") plt.show() ``` 其中,`data[:, 0]` 和 `data[:, 1]` 分别表示数据中的两个维度,`s=data.sum(axis=1)` 表示点的大小为该省份数据量的总和,`c=labels` 表示不同的类别用不同的颜色表示。 你可以根据需要修改代码,比如修改数据维度、调整点的大小和颜色等,以获得更好的可视化效果。
相关问题

import numpy as np from sklearn.cluster import KMeans # 数据准备 data = np.array([ [100, 50, 20, 30, 80, 40, 10, 70], # 辽宁省的数据 [200, 150, 80, 60, 120, 100, 30, 90], # 浙江省的数据 [80, 60, 10, 20, 40, 30, 5, 50], # 河南省的数据 [50, 30, 5, 10, 25, 15, 3, 20], # 甘肃省的数据 [120, 80, 30, 40, 60, 50, 15, 40] # 青海省的数据 ]) # 数据标准化(可选,根据需要进行标准化处理) # data = (data - data.mean(axis=0)) / data.std(axis=0) # 使用K均值聚类算法进行分类 k = 5 # 分类的数量 kmeans = KMeans(n_clusters=k, random_state=0) labels = kmeans.fit_predict(data) # 打印分类结果 provinces = ["辽宁", "浙江", "河南", "甘肃", "青海"] for i, label in enumerate(labels): print(f"{provinces[i]}: 类别 {label}")生成相关绘制图示的步骤

这段代码是使用K均值聚类算法对5个省份的数据进行分类,并打印出每个省份所属的类别。如果你想要生成相关绘制图示,可以考虑使用matplotlib库进行可视化展示。具体步骤如下: 1.导入matplotlib库 import matplotlib.pyplot as plt 2.将每个省份的数据点用不同颜色标记出来 colors = ['red', 'green', 'blue', 'yellow', 'purple'] for i, label in enumerate(labels): plt.scatter(data[i,0], data[i,1], c=colors[label]) 3.设置图表标题和坐标轴标签 plt.title('Provinces Clustering') plt.xlabel('Feature 1') plt.ylabel('Feature 2') 4.展示图表 plt.show() 完整代码如下: import numpy as np from sklearn.cluster import KMeans import matplotlib.pyplot as plt data = np.array([ [100, 50, 20, 30, 80, 40, 10, 70], [200, 150, 80, 60, 120, 100, 30, 90], [80, 60, 10, 20, 40, 30, 5, 50], [50, 30, 5, 10, 25, 15, 3, 20], [120, 80, 30, 40, 60, 50, 15, 40] ]) k = 5 kmeans = KMeans(n_clusters=k, random_state=0) labels = kmeans.fit_predict(data) provinces = ["辽宁", "浙江", "河南", "甘肃", "青海"] colors = ['red', 'green', 'blue', 'yellow', 'purple'] for i, label in enumerate(labels): plt.scatter(data[i,0], data[i,1], c=colors[label]) plt.title('Provinces Clustering') plt.xlabel('Feature 1') plt.ylabel('Feature 2') plt.show()

import numpy as np from sklearn.cluster import KMeans def compress_image(image, n_clusters): # 转换为一维向量 data = image.reshape(-1, 3) # 用 KMeans 算法将像素点聚类到 n_clusters 个簇中 kmeans = KMeans(n_clusters=5, random_state=0).fit(data) # 将每个像素点替换为所属簇的中心像素值 compressed_data = np.array([kmeans.cluster_centers_[label] for label in kmeans.labels_]) # 将压缩后的一维向量转换回原图像的形状 compressed_image = compressed_data.reshape(image.shape) return compressed_imageimport matplotlib.pyplot as plt from PIL import Image # 读取图像 image = np.array(Image.open('0.jpg')) # 将图像数据归一化到 [0, 1] 范围内 image = image.astype('float32') / 255.0 # 压缩图像 compressed_image = compress_image(image_norm, n_clusters=16) # 显示压缩前后的图像 fig, ax = plt.subplots(1, 2, figsize=(10, 5)) ax[0].imshow(image) ax[0].set_title('Original Image') ax[1].imshow(compressed_image) ax[1].set_title('Compressed Image') plt.show()加上计算压缩率的功能

可以在 compress_image 函数中添加计算压缩率的功能,具体实现如下: ``` import numpy as np from sklearn.cluster import KMeans def compress_image(image, n_clusters): # 转换为一维向量 data = image.reshape(-1, 3) # 用 KMeans 算法将像素点聚类到 n_clusters 个簇中 kmeans = KMeans(n_clusters=n_clusters, random_state=0).fit(data) # 将每个像素点替换为所属簇的中心像素值 compressed_data = np.array([kmeans.cluster_centers_[label] for label in kmeans.labels_]) # 将压缩后的一维向量转换回原图像的形状 compressed_image = compressed_data.reshape(image.shape) # 计算压缩率 compressed_size = compressed_data.nbytes original_size = image.nbytes compression_ratio = compressed_size / original_size return compressed_image, compression_ratio import matplotlib.pyplot as plt from PIL import Image # 读取图像 image = np.array(Image.open('0.jpg')) # 将图像数据归一化到 [0, 1] 范围内 image = image.astype('float32') / 255.0 # 压缩图像 n_clusters = 5 compressed_image, compression_ratio = compress_image(image, n_clusters) # 显示压缩前后的图像 fig, ax = plt.subplots(1, 2, figsize=(10, 5)) ax[0].imshow(image) ax[0].set_title('Original Image') ax[1].imshow(compressed_image) ax[1].set_title('Compressed Image') # 显示压缩率 plt.figtext(0.5, 0.9, f'Compression Ratio: {compression_ratio:.2%}', ha='center', fontsize=12) plt.show() ``` 在上述代码中,计算压缩率的代码为: ``` compressed_size = compressed_data.nbytes original_size = image.nbytes compression_ratio = compressed_size / original_size ``` 其中,`compressed_data.nbytes` 表示压缩后的图像数据的字节数,`image.nbytes` 表示原始图像数据的字节数,压缩率即为两者之比。

相关推荐

import numpy as np import matplotlib.pyplot as plt from keras.models import Sequential from keras.layers import Dense, SimpleRNN from keras import backend as K from keras.models import Model from sklearn.cluster import KMeans # 生成sin函数数据 x = np.arange(0, 2*np.pi, 0.1) y = np.sin(x) # 可视化sin函数 plt.plot(x, y) plt.show() # 准备数据 dataX, dataY = [], [] for i in range(len(y)-1): dataX.append(y[i:i+1]) dataY.append(y[i+1]) dataX = np.array(dataX) dataY = np.array(dataY) # 划分训练集和测试集 train_size = int(len(dataY) * 0.7) test_size = len(dataY) - train_size trainX, testX = np.array(dataX[0:train_size]), np.array(dataX[train_size:len(dataX)]) trainY, testY = np.array(dataY[0:train_size]), np.array(dataY[train_size:len(dataY)]) # 调整输入数据的形状 trainX = np.reshape(trainX, (trainX.shape[0], 1, trainX.shape[1])) testX = np.reshape(testX, (testX.shape[0], 1, testX.shape[1])) # 定义模型结构 model = Sequential() model.add(SimpleRNN(units=10, input_shape=(1, 1))) model.add(Dense(units=1)) # 编译模型 model.compile(optimizer='adam', loss='mse') # 训练模型 history = model.fit(trainX, trainY, epochs=200, validation_data=(testX, testY)) # 可视化损失函数 plt.plot(history.history['loss']) plt.plot(history.history['val_loss']) plt.title('Model Loss') plt.ylabel('Loss') plt.xlabel('Epoch') plt.legend(['Train', 'Test'], loc='upper right') plt.show() #预测结果 trainPredict = model.predict(trainX) testPredict = model.predict(testX)可视化模型结构代码

import numpy as np import matplotlib.pyplot as plt # 生成sin函数数据 x = np.arange(0, 2*np.pi, 0.1) y = np.sin(x) # 可视化sin函数 plt.plot(x, y) plt.show() from keras.models import Sequential from keras.layers import Dense, SimpleRNN # 准备数据 dataX, dataY = [], [] for i in range(len(y)-1): dataX.append(y[i:i+1]) dataY.append(y[i+1]) dataX = np.array(dataX) dataY = np.array(dataY) # 划分训练集和测试集 train_size = int(len(dataY) * 0.7) test_size = len(dataY) - train_size trainX, testX = np.array(dataX[0:train_size]), np.array(dataX[train_size:len(dataX)]) trainY, testY = np.array(dataY[0:train_size]), np.array(dataY[train_size:len(dataY)]) # 调整输入数据的形状 trainX = np.reshape(trainX, (trainX.shape[0], 1, trainX.shape[1])) testX = np.reshape(testX, (testX.shape[0], 1, testX.shape[1])) # 定义模型结构 model = Sequential() model.add(SimpleRNN(units=10, input_shape=(1, 1))) model.add(Dense(units=1)) # 编译模型 model.compile(optimizer='adam', loss='mse') # 训练模型 history = model.fit(trainX, trainY, epochs=100, validation_data=(testX, testY)) # 可视化损失函数 plt.plot(history.history['loss']) plt.plot(history.history['val_loss']) plt.title('Model Loss') plt.ylabel('Loss') plt.xlabel('Epoch') plt.legend(['Train', 'Test'], loc='upper right') plt.show() #预测结果 trainPredict = model.predict(trainX) testPredict = model.predict(testX) # 可视化预测结果 plt.plot(y) plt.plot(np.concatenate((trainPredict, testPredict))) plt.show()对隐藏层输出进行聚类

import numpy as np import matplotlib.pyplot as plt from math import pi from sklearn.cluster import KMeans k = 5 #数据个数 plot_data = kmodel.cluster_centers_ color = ['b', 'g', 'r', 'c', 'y'] #指定颜色 angles = np.linspace(0, 2*np.pi, k, endpoint=False) plot_data = np.concatenate((plot_data, plot_data[:,[0]]), axis=1) # 闭合 features = np.concatenate((features, features[0:1])) angles = np.linspace(0, 2 * np.pi, len(features), endpoint=False) angles = angles.astype(np.float16) fig=plt.figure(figsize=(10, 8)) ax = fig.add_subplot(111, polar=True) center_num = r.values feature = ["入会时间", "飞行次数", "平均每公里票价", "总里程", "时间间隔差值", "平均折扣率"] N =len(feature) for i, v in enumerate(center_num): # 设置雷达图的角度,用于平分切开一个圆面 angles=np.linspace(0, 2*np.pi, N, endpoint=False) # 为了使雷达图一圈封闭起来,需要下面的步骤 center = np.concatenate((v[:-1],[v[0]])) angles=np.concatenate((angles,[angles[0]])) # 绘制折线图 ax.plot(angles, center, 'o-', linewidth=2, label = "第%d簇人群,%d人"% (i+1,v[-1])) # 填充颜色 ax.fill(angles, center, alpha=0.25) # 添加每个特征的标签 # 设置雷达图的范围 ax.set_ylim(min-0.1, max+0.1) # 添加标题 plt.title('客户群特征分析图', fontsize=20) # 添加网格线 ax.grid(True) # 设置图例 plt.legend(loc='upper right', bbox_to_anchor=(1.3,1.0),ncol=1,fancybox=True,shadow=True) # 添加标题和图例 plt.title('Feature Radar Chart') plt.legend(loc='best') # 显示图形 plt.show()代码纠错

import random import numpy as np import matplotlib.pyplot as plt 生成随机坐标点 def generate_points(num_points): points = [] for i in range(num_points): x = random.uniform(-10, 10) y = random.uniform(-10, 10) points.append([x, y]) return points 计算欧几里得距离 def euclidean_distance(point1, point2): return np.sqrt(np.sum(np.square(np.array(point1) - np.array(point2)))) K-means算法实现 def kmeans(points, k, num_iterations=100): num_points = len(points) # 随机选择k个点作为初始聚类中心 centroids = random.sample(points, k) # 初始化聚类标签和距离 labels = np.zeros(num_points) distances = np.zeros((num_points, k)) for i in range(num_iterations): # 计算每个点到每个聚类中心的距离 for j in range(num_points): for l in range(k): distances[j][l] = euclidean_distance(points[j], centroids[l]) # 根据距离将点分配到最近的聚类中心 for j in range(num_points): labels[j] = np.argmin(distances[j]) # 更新聚类中心 for l in range(k): centroids[l] = np.mean([points[j] for j in range(num_points) if labels[j] == l], axis=0) return labels, centroids 生成坐标点 points = generate_points(100) 对点进行K-means聚类 k_values = [2, 3, 4] for k in k_values: labels, centroids = kmeans(points, k) # 绘制聚类结果 colors = [‘r’, ‘g’, ‘b’, ‘y’, ‘c’, ‘m’] for i in range(k): plt.scatter([points[j][0] for j in range(len(points)) if labels[j] == i], [points[j][1] for j in range(len(points)) if labels[j] == i], color=colors[i]) plt.scatter([centroid[0] for centroid in centroids], [centroid[1] for centroid in centroids], marker=‘x’, color=‘k’, s=100) plt.title(‘K-means clustering with k={}’.format(k)) plt.show()import numpy as np import pandas as pd import matplotlib.pyplot as plt from sklearn.cluster import KMeans from sklearn.datasets import load_iris 载入数据集 iris = load_iris() X = iris.data y = iris.target K-means聚类 kmeans = KMeans(n_clusters=3, random_state=0).fit(X) 可视化结果 plt.scatter(X[:, 0], X[:, 1], c=kmeans.labels_) plt.xlabel(‘Sepal length’) plt.ylabel(‘Sepal width’) plt.title(‘K-means clustering on iris dataset’) plt.show()对这个算法的结果用SSE,轮廓系数,方差比率准则,DBI几个指标分析

import pandas as pd from sklearn.cluster import KMeans import matplotlib.pyplot as plt import numpy as np from sklearn.preprocessing import StandardScaler from sklearn import metrics beer=pd.read_csv('data.txt',encoding='gbk',sep='') X=beer[["calories","sodium","alcohol","cost"]] km=KMeans(n_clusters=3).fit(X) beer['cluster']=km.labels_ centers=km.cluster_centers_ plt.rcParams['font.size']=14 colors=np.array(['red','green','blue','yellow']) plt.scatter(beer["calories"], beer["alcohol"], c=colors[beer["cluster"]]) plt.scatter(centers[:,0], centers[:,2], linewidths=3,marker='+',s=300,c='black') plt.xlabel("Calories") plt.ylable("Alcohol") plt.suptitle("Calories and Alcohol") pd.plotting.scatter_matrix(beer[["calories", "sodium","alcohol","cost"]],s=100,alpha=1,c=colors[beer["cluster"]],figsize=(10,10)) plt.suptitle("original data") scaler=StandardScaler() X_scaled=scaler.fit_transform(X) km=KMeans(n_clusters=3).fit(X_scaled) beer["scaled_cluster"]=km.labels_ centers=km.cluster_centers_ pd.plotting.scatter_matrix(X, c=colors[beer.scaled_cluster],alpha=1,figsize=(10,10),s=100) plt.suptitle("standard data") score_scaled=metrics.silhouette_score(X, beer.scaled_cluster) score=metrics.silhouette_score(X, beer.cluster) print("得分为",score_scaled,score) scores=[] for k in range(2,20): labels=KMeans(n_clusters=k).fit(X).labels_ score=metrics.silhouette_score(X, labels) scores.append(score) for i in range(len(scores)): print((i+2,scores[i])) print(max(scores[i])) plt.figure() plt.plot(list(range(2,20)), scores,"ro") plt.xlabel("Number of Clusters Initialized") plt.ylabel("Sihouette Score") plt.suptitle("K parameter optimize") plt.show() scores=[] for k in range(2,20): labels=KMeans(n_clusters=k).fit(X_scaled).labels_ score=metrics.silhouette_score(X_scaled, labels) scores.append(score) for i in range(len(scores)): print((i+2,scores[i]))

最新推荐

recommend-type

服务器虚拟化部署方案.doc

服务器、电脑、
recommend-type

北京市东城区人民法院服务器项目.doc

服务器、电脑、
recommend-type

求集合数据的均方差iction-mast开发笔记

求集合数据的均方差
recommend-type

VMP技术解析:Handle块优化与壳模板初始化

"这篇学习笔记主要探讨了VMP(Virtual Machine Protect,虚拟机保护)技术在Handle块优化和壳模板初始化方面的应用。作者参考了看雪论坛上的多个资源,包括关于VMP还原、汇编指令的OpCode快速入门以及X86指令编码内幕的相关文章,深入理解VMP的工作原理和技巧。" 在VMP技术中,Handle块是虚拟机执行的关键部分,它包含了用于执行被保护程序的指令序列。在本篇笔记中,作者详细介绍了Handle块的优化过程,包括如何删除不使用的代码段以及如何通过指令变形和等价替换来提高壳模板的安全性。例如,常见的指令优化可能将`jmp`指令替换为`push+retn`或者`lea+jmp`,或者将`lodsbyteptrds:[esi]`优化为`moval,[esi]+addesi,1`等,这些变换旨在混淆原始代码,增加反逆向工程的难度。 在壳模板初始化阶段,作者提到了1.10和1.21两个版本的区别,其中1.21版本增加了`Encodingofap-code`保护,增强了加密效果。在未加密时,代码可能呈现出特定的模式,而加密后,这些模式会被混淆,使分析更加困难。 笔记中还提到,VMP会使用一个名为`ESIResults`的数组来标记Handle块中的指令是否被使用,值为0表示未使用,1表示使用。这为删除不必要的代码提供了依据。此外,通过循环遍历特定的Handle块,并依据某种规律(如`v227&0xFFFFFF00==0xFACE0000`)进行匹配,可以找到需要处理的指令,如`push0xFACE0002`和`movedi,0xFACE0003`,然后将其替换为安全的重定位值或虚拟机上下文。 在结构体使用方面,笔记指出壳模板和用户代码都会通过`Vmp_AllDisassembly`函数进行解析,而且0x8和0x10字段通常都指向相同的结构体。作者还提到了根据`pNtHeader_OptionalHeader.Magic`筛选`ESI_Matching_Array`数组的步骤,这可能是为了进一步确定虚拟机上下文的设置。 这篇笔记深入解析了VMP技术在代码保护中的应用,涉及汇编指令的优化、Handle块的处理以及壳模板的初始化,对于理解反逆向工程技术以及软件保护策略有着重要的参考价值。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

【进阶】音频处理基础:使用Librosa

![【进阶】音频处理基础:使用Librosa](https://picx.zhimg.com/80/v2-a39e5c9bff1d920097341591ca8a2dfe_1440w.webp?source=1def8aca) # 2.1 Librosa库的安装和导入 Librosa库是一个用于音频处理的Python库。要安装Librosa库,请在命令行中输入以下命令: ``` pip install librosa ``` 安装完成后,可以通过以下方式导入Librosa库: ```python import librosa ``` 导入Librosa库后,就可以使用其提供的各种函数
recommend-type

python中字典转换成json

在Python中,你可以使用`json`模块将字典转换为JSON格式的字符串。下面是一个简单的示例: ```python import json # 假设我们有一个字典 dict_data = { "name": "John", "age": 30, "city": "New York" } # 使用json.dumps()函数将字典转换为JSON json_string = json.dumps(dict_data) print(json_string) # 输出:{"name": "John", "age": 30, "city": "New York"}
recommend-type

C++ Primer 第四版更新:现代编程风格与标准库

"Cpp Primer第四版中文版(电子版)1" 本书《Cpp Primer》第四版是一本深入浅出介绍C++编程语言的教程,旨在帮助初学者和有经验的程序员掌握现代C++编程技巧。作者在这一版中进行了重大更新,以适应C++语言的发展趋势,特别是强调使用标准库来提高编程效率。书中不再过于关注底层编程技术,而是将重点放在了标准库的运用上。 第四版的主要改动包括: 1. 内容重组:为了反映现代C++编程的最佳实践,书中对语言主题的顺序进行了调整,使得学习路径更加顺畅。 2. 添加辅助学习工具:每章增设了“小结”和“术语”部分,帮助读者回顾和巩固关键概念。此外,重要术语以黑体突出,已熟悉的术语以楷体呈现,以便读者识别。 3. 特殊标注:用特定版式标注关键信息,提醒读者注意语言特性,避免常见错误,强调良好编程习惯,同时提供通用的使用技巧。 4. 前后交叉引用:增加引用以帮助读者理解概念之间的联系。 5. 额外讨论和解释:针对复杂概念和初学者常遇到的问题,进行深入解析。 6. 大量示例:提供丰富的代码示例,所有源代码都可以在线获取,便于读者实践和学习。 本书保留了前几版的核心特色,即以实例教学,通过解释和展示语言特性来帮助读者掌握C++。作者的目标是创作一本清晰、全面、准确的教程,让读者在编写程序的过程中学习C++,同时也展示了如何有效地利用这门语言。 《Cpp Primer》第四版不仅适合C++初学者,也适合想要更新C++知识的老手,它全面覆盖了C++语言的各个方面,包括基础语法、类、模板、STL(Standard Template Library)等,同时引入了现代C++的特性,如智能指针、RAII(Resource Acquisition Is Initialization)、lambda表达式等,使读者能够跟上C++语言的发展步伐,提升编程技能。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

【基础】网络编程入门:使用HTTP协议

![【基础】网络编程入门:使用HTTP协议](https://img-blog.csdnimg.cn/direct/4fbc6b5a6d744a519429654f56ea988e.png) # 1. 网络编程基础** **1.1 网络基础知识** 网络是连接计算机和设备的系统,允许它们交换数据和资源。它由节点(计算机、服务器、路由器等)和连接它们的数据链路组成。网络可以是局域网(LAN)、广域网(WAN)或互联网。 **1.2 TCP/IP协议栈** TCP/IP协议栈是一组通信协议,用于在网络上传输数据。它分为四层: * **链路层:**处理物理连接和数据传输。 * **网络层: