等保2.0三级与1.0对比:四大安全领域详解

4星 · 超过85%的资源 需积分: 25 53 下载量 110 浏览量 更新于2024-09-07 1 收藏 45KB DOCX 举报
等保2.0与1.0在网络安全等级保护中的差异主要体现在基本要求通用要求技术部分的结构调整和控制点的具体要求上。从三级等保的角度来看,变化尤为显著。 首先,等保2.0将原有的五个层面(物理安全、网络安全、主机安全、应用安全、数据安全)整合为四个部分:物理和环境安全、网络和通信安全、设备和计算安全、应用和数据安全。这样的调整使得安全要求更加聚焦,避免了重复和冗余,提升了管理效率。 1. 物理和环境安全:虽然控制点的数量从32项减少到22项,但对机房设施的要求保持不变,强调物理位置选择、物理访问控制等关键要素,确保基础设施的安全稳定。 2. 网络和通信安全:新标准减少了结构安全、边界完整性检查、网络设备防护这三个控制点,但新增了网络架构、通信传输、边界防护和集中管控。例如,部分原本在结构安全中的要求被纳入网络架构,通信完整性和保密性则整合到了通信传输中,边界防护和访问控制的要求也有所调整。 3. 设备和计算安全:主机安全中的剩余信息保护被删除,扩展到了网络设备和安全设备的保护范围,共26项要求,更加全面地覆盖了IT设备的安全保障。 4. 应用和数据安全:合并了原有应用安全和数据安全及备份恢复,减少了通信完整性、通信保密性和抗抵赖的控制点,同时增加了个人信息保护,强化了数据保护和用户隐私的重视。通信完整性和保密性现在归于网络和通信安全的通信传输部分。 总体来说,等保2.0三级标准在保证原有安全要求的基础上,更加注重系统整体和细分层面的综合防护,旨在提升网络安全防护的精细化和有效性。企业进行等保2.0升级时,不仅需要关注控制点数量的变化,更需深入理解每个层面的新要求,确保网络安全管理体系的适应性和实用性。

In [16]: wine_data=data.iloc[:-5,:] wine_target=data.iloc[-5:,:] In [17]: from sklearn.tree import DecisionTreeClassifier from sklearn.model_selection import train_test_split from sklearn.linear_model import LogisticRegression from sklearn.model_selection import train_test_split x=wine_data.iloc[:,1:].values y=wine_data.iloc[:,0].values x_train,x_test,y_train,y_test=train_test_split(x,y,test_size=0.3,random_state=42) #建立模型 dtc=DecisionTreeClassifier(criterion='entropy')#基于熵评价纯度 dtc.fit(x_train,y_train)#拟合数据 y_pre=dtc.predict(x_test) y_pre Out[17]: array([3.0, 1.0, 3.0, 2.0, 2.0, 2.0, 2.0, 1.0, 3.0, 2.0, 3.0, 1.0, 2.0, 3.0, 2.0, 1.0, 2.0, 1.0, 3.0, 2.0, 2.0, 2.0, 2.0, 1.0, 3.0, 2.0, 3.0, 1.0, 2.0, 1.0, 2.0, 1.0, 2.0, 2.0, 3.0, 3.0, 2.0, 1.0, 1.0, 1.0, 1.0, 1.0, 3.0, 1.0, 1.0, 1.0, 2.0, 1.0, 2.0, 1.0, 3.0, 3.0]) In [18]: dtc.predict(wine_target.iloc[:,1:].values) Out[18]: array([2.0, 2.0, 2.0, 3.0, 1.0]) In [19]: from sklearn.metrics import mean_squared_error #先获得预测的y值y_pre y_pre=dtc.predict(x_test) mean_squared_error(y_test,y_pre) Out[19]: 0.0 In [20]: print("决策树 训练精度:",dtc.score(x_test,y_test)) print("决策树 泛化精度:",dtc.score(x_train,y_train)) 决策树 训练精度: 1.0 决策树 泛化精度: 1.0 In [21]: #KNN最近邻分类算法 from sklearn.neighbors import KNeighborsClassifier from sklearn.datasets import load_digits from sklearn.model_selection import train_test_split x=wine_data.iloc[:,1:].values y=wine_data.iloc[:,0].values x_train,x_test,y_train,y_test=train_test_split(x,y,test_size=0.3,random_state=125) dtr=KNeighborsClassifier() dtr.fit(x_train,y_train) dtr.score(x_test,y_test) Out[21]: 0.9807692307692307 In [22]: model_knn=KNeighborsClassifier(n_neighbors=5)#看5个近邻的类别确定分类 model_knn.fit(x_train,y_train) #预测 model_knn.predict(x_test) Out[22]: array([3.0, 3.0, 1.0, 2.0, 1.0, 3.0, 3.0, 1.0, 2.0, 3.0, 2.0, 1.0, 2.0, 1.0, 2.0, 1.0, 2.0, 2.0, 3.0, 1.0, 1.0, 3.0, 1.0, 2.0, 1.0, 2.0, 3.0, 3.0, 2.0, 2.0, 1.0, 1.0, 2.0, 1.0, 1.0, 2.0, 3.0, 1.0, 3.0, 3.0, 2.0, 2.0, 2.0, 2.0, 1.0, 1.0, 1.0, 1.0, 2.0, 3.0, 2.0, 1.0]) In [23]: dtr.predict(wine_target.iloc[:,1:].values) Out[23]: array([2.0, 2.0, 3.0, 3.0, 1.0]) In [24]: neighbors = 3 from sklearn.neighbors import KNeighborsClassifier knn = KNeighborsClassifier(neighbors) knn.fit(x_train,y_train) print("KNN 训练精度:",knn.score(x_test,y_test)) print("KNN 泛化精度:",knn.score(x_train,y_train)) KNN 训练精度: 0.9615384615384616 KNN 泛化精度: 0.9586776859504132代码解释

2023-06-11 上传