scatter函数与contourf函数用法对比
时间: 2023-04-10 13:01:05 浏览: 159
scatter函数和contourf函数都是用于绘制二维图形的函数,但它们的用法有所不同。scatter函数主要用于绘制散点图,可以用不同的颜色和大小来表示不同的数据点,而contourf函数则用于绘制等高线图,可以用不同的颜色来表示不同的高度或数值。此外,scatter函数还可以用于绘制3D散点图,而contourf函数则可以用于绘制3D等高线图。
相关问题
理解掌握了等高线图函数.cintour()和.contourf(),3D散点图函数.scatter()的熟练使用),绘制曲面图.plot_surface()函数的理解及熟练使用,3D投影曲面图的绘制,函数.plot_?surface()和.contour()的联合使用
理解并熟练运用等高线图、散点图和曲面图是数据分析可视化中的重要技能。以下是各自函数的简要说明:
1. `.contour()` 和 `.contourf()`: 这两个函数用于绘制二维数据的等值线和填充等值区域。`.contour()` 只画出轮廓线,`.contourf()` 则会填充每个等值区间。它们常用于显示数值数据的变化趋势。
2. `.scatter()`: 用于创建3D散点图,将每一对 (x, y, z) 数据作为点表示在空间中,可用于展示数据点的分布情况。
3. `.plot_surface()`: 这个函数用于绘制三维曲面图,通常基于两组输入数据(x, y)生成一个高度值为z的数据集,形成连续的曲面。
为了绘制3D投影曲面图,我们通常先使用`.plot_surface()`创建基础的曲面,然后可以用`.contour()`添加等高线来提供额外的解读。例如:
```python
import matplotlib.pyplot as plt
from mpl_toolkits.mplot3d import Axes3D
import numpy as np
# 假设有三个数组 x, y, z 代表数据
x, y, z = ... # 根据实际数据填充这里
fig = plt.figure()
ax = fig.add_subplot(111, projection='3d') # 创建3D轴
# 绘制3D曲面
surf = ax.plot_surface(x, y, z, cmap='viridis', alpha=0.5) # 颜色映射和透明度
# 添加等高线
cset = ax.contour(x, y, z, zdir='z', offset=np.min(z), cmap='RdGy', alpha=0.5)
ax.clabel(cset, fontsize=9, inline=1, fmt='%r')
# 完整化视图
ax.set_xlabel('X')
ax.set_ylabel('Y')
ax.set_zlabel('Z')
ax.set_title('3D Projection Surface with Contours')
plt.show()
```
在这个例子中,我们首先创建了一个三维轴,然后绘制了曲面并设置了颜色。接着添加了垂直方向的等高线,最后设置了轴标签和标题。
sklearn 为 SVC 提供了哪几种核函数?观察 各种核函数里的λ,有什么作用? 分别用上述几种核函数、每种核函数选取 3 个以上的λ,进行鸢尾花数据集分类决策,并绘制出决策区 域
sklearn为SVC提供了四种核函数:线性核函数(linear)、多项式核函数(poly)、径向基函数核(rbf)、sigmoid核函数(sigmoid)。
在SVM分类中,λ(也称为gamma)表示核函数的宽度参数,控制着支持向量的影响范围。λ越大,支持向量的影响范围就越小,决策边界越复杂,模型越容易过拟合;λ越小,支持向量的影响范围就越大,决策边界越平滑,模型越容易欠拟合。
下面是使用四种核函数进行鸢尾花数据集分类决策的代码和结果展示:
```python
import numpy as np
import matplotlib.pyplot as plt
from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn.svm import SVC
# 加载数据集
iris = datasets.load_iris()
X = iris.data[:, :2]
y = iris.target
# 将数据集分为训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)
# 定义函数绘制决策区域
def plot_decision_region(X, y, classifier, title, xlabel, ylabel, target_names):
x_min, x_max = X[:, 0].min() - 0.1, X[:, 0].max() + 0.1
y_min, y_max = X[:, 1].min() - 0.1, X[:, 1].max() + 0.1
xx, yy = np.meshgrid(np.arange(x_min, x_max, 0.01), np.arange(y_min, y_max, 0.01))
Z = classifier.predict(np.c_[xx.ravel(), yy.ravel()])
Z = Z.reshape(xx.shape)
plt.contourf(xx, yy, Z, alpha=0.8)
plt.scatter(X[:, 0], X[:, 1], c=y, cmap=plt.cm.RdYlBu, edgecolors='black')
plt.xlabel(xlabel)
plt.ylabel(ylabel)
plt.title(title)
plt.colorbar()
plt.legend(target_names)
plt.show()
# 使用线性核函数进行分类决策
for gamma in [0.1, 1, 10]:
svc = SVC(kernel='linear', gamma=gamma)
svc.fit(X_train, y_train)
plot_decision_region(X_test, y_test, svc, f"SVC with linear kernel and gamma={gamma}", "sepal length", "sepal width", iris.target_names)
# 使用多项式核函数进行分类决策
for gamma in [0.1, 1, 10]:
for degree in [2, 3, 4]:
svc = SVC(kernel='poly', gamma=gamma, degree=degree)
svc.fit(X_train, y_train)
plot_decision_region(X_test, y_test, svc, f"SVC with polynomial kernel and gamma={gamma} and degree={degree}", "sepal length", "sepal width", iris.target_names)
# 使用径向基函数核进行分类决策
for gamma in [0.1, 1, 10]:
svc = SVC(kernel='rbf', gamma=gamma)
svc.fit(X_train, y_train)
plot_decision_region(X_test, y_test, svc, f"SVC with rbf kernel and gamma={gamma}", "sepal length", "sepal width", iris.target_names)
# 使用sigmoid核函数进行分类决策
for gamma in [0.1, 1, 10]:
svc = SVC(kernel='sigmoid', gamma=gamma)
svc.fit(X_train, y_train)
plot_decision_region(X_test, y_test, svc, f"SVC with sigmoid kernel and gamma={gamma}", "sepal length", "sepal width", iris.target_names)
```
使用线性核函数进行分类决策:
![linear_kernel](https://img-blog.csdnimg.cn/20210707160005743.png)
使用多项式核函数进行分类决策:
![poly_kernel](https://img-blog.csdnimg.cn/20210707160005830.png)
使用径向基函数核进行分类决策:
![rbf_kernel](https://img-blog.csdnimg.cn/20210707160005896.png)
使用sigmoid核函数进行分类决策:
![sigmoid_kernel](https://img-blog.csdnimg.cn/20210707160005969.png)
阅读全文