plt.figure(figsize=(10,8)) plt.plot(list(np.arange(0,len(data1_0))),data1_0,label='原序列') plt.plot(list(np.arange(0,len(data1_0))),data1_1_3,label='平滑后的序列') plt.title('移动平均法(窗口大小为3个)数据平滑对比图') plt.xlabel('时间序列') plt.ylabel('速度(km/h)') plt.xticks(range(0,110,10)) plt.legend() plt.show() plt.figure(figsize=(10,8)) plt.plot(list(np.arange(0,len(data1_0))),data1_0,label='原序列') plt.plot(list(np.arange(0,len(data1_0))),data1_1_5,label='平滑后的序列') plt.title('移动平均法(窗口大小为5个)数据平滑图') plt.xlabel('时间序列') plt.ylabel('速度(km/h)') plt.xticks(range(0,110,10)) plt.legend() plt.show()如何将两幅图合并
时间: 2023-06-07 08:11:39 浏览: 112
可以使用subplot函数将两幅图合并:
plt.figure(figsize=(10,8))
plt.subplot(2,1,1)
plt.plot(list(np.arange(0,len(data1_0))),data1_0,label='原序列')
plt.plot(list(np.arange(0,len(data1_0))),data1_1_3,label='平滑后的序列')
plt.title('移动平均法(窗口大小为3个)数据平滑对比图')
plt.xlabel('时间序列')
plt.ylabel('速度(km/h)')
plt.xticks(range(0,110,10))
plt.legend()
plt.subplot(2,1,2)
plt.plot(list(np.arange(0,len(data1_0))),data1_0,label='原序列')
plt.plot(list(np.arange(0,len(data1_0))),data1_1_5,label='平滑后的序列')
plt.title('移动平均法(窗口大小为5个)数据平滑图')
plt.xlabel('时间序列')
plt.ylabel('速度(km/h)')
plt.xticks(range(0,110,10))
plt.legend()
plt.show()
相关问题
解释这段代码def plot_confusion_matrix(cm, title='混淆矩阵', cmap=plt.cm.Blues, labels=[]): plt.figure(figsize=(8,8),dpi=600) plt.imshow(cm, interpolation='nearest', cmap=cmap) plt.title(title,fontsize=15) plt.colorbar(fraction=0.045,pad=0.05) tick_marks = np.arange(len(labels)) ind_array = np.arange(len(classes)) x, y = np.meshgrid(ind_array, ind_array)
这段代码是用于绘制混淆矩阵的,用于评估分类模型的性能表现。其中,输入参数cm表示混淆矩阵,title表示图表标题,cmap表示颜色映射,labels表示类别标签。这段代码使用了matplotlib库和numpy库来完成图表绘制和数据处理。
import numpy as np import matplotlib.pyplot as plt import pandas as pd w = pd.read_csv('BostonHousing2.csv') w_new=w.drop(columns=["chas"],axis=1) wn0 = w_new.columns wn = wn0[5:] f = plt.figure(figsize=(16,8)) k=0 for i in range(len(wn)): for j in range(len(wn)): k=k+1 if i!=j: f.add_subplot(len(wn),len(wn),k) else: f.add_subplot(len(wn),len(wn),k) plt.scatter([0,1],[0,1]) plt.text(.5,.5,wn[i],\ ha='center',va='center',size=10) y=np.array(w[wn[0]])[:,np.newaxis] X=np.array(w[wn[1:]]) from sklearn import linear_model regr=linear_model.LinearRegression(fit_intercept=False) regr.fit(X,y) print(regr.coef_) res=y-regr.predict(X) import scipy.stats as stats import pylab res.shape=res.shape[0] f=plt.figure(figsize=(12,5)) f.add_subplot(121) plt.scatter(regr.predict(X),res) plt.plot(regr.predict(X),np.ones(len(y))) plt.xlabel('Fitted values') plt.ylabel('Residuals') f.add_subplot(122) stats.probplot(res,dist="norm",plot=pylab) plt.show() from sklearn.tree import DecisionTreeRegressor from sklearn import tree import graphviz regr2 =DecisionTreeRegressor(max_depth=4,random_state=100) regr2 = regr2.fit(X,y) dot_data=tree.export_graphviz(regr2,feature_names=wn[1:],out_file=None) graph=graphviz.Source(dot_data) f=plt.figure(figsize=(12,5)) f.add_subplot(111) height=regr2.feature_importances_ bars = wn[1:] y_pos=np.arange(len(bars)) plt.bar(y_pos,height) plt.xticks(y_pos,bars) plt.yticks() plt.show() 解释以上代码
以上代码是用于数据分析和可视化的Python代码。首先,它使用pandas库加载名为'BostonHousing2.csv'的csv文件,并删除了"chas"列。然后,它选择了一些列作为特征和目标变量,并使用线性回归模型进行拟合和预测。接下来,它计算了预测值与实际值之间的残差,并进行了残差分析和正态概率图。然后,它使用决策树回归模型进行拟合,并可视化了决策树模型和特征的重要性。最后,它显示了这些可视化结果。
请注意,这段代码假设你已经安装了相关的库(如numpy、matplotlib、pandas、scikit-learn和graphviz),并且已经有了'BostonHousing2.csv'文件作为数据源。
阅读全文