全面分析:本地文件信息数据处理与直方图绘制

版权申诉
0 下载量 129 浏览量 更新于2024-10-19 收藏 947KB ZIP 举报
资源摘要信息:"在本机进行文件信息数据处理的过程中,首先需要完成对所有文件信息的搜索和收集工作,然后再根据收集到的数据绘制各种直方图。具体来说,需要绘制的是三个不同的直方图,分别是文件大小分布的直方图、文件创建时间和修改时间的直方图以及文件类型的直方图。" 文件大小分布的直方图,这是通过对本机中所有文件的大小进行统计,然后按照不同的大小区间进行分类,最后将每个区间中的文件数量以柱状图的形式展示出来。这个直方图可以帮助我们了解本机中各种大小文件的分布情况,从而对本机的存储使用情况有一个直观的认识。 文件创建时间和修改时间的直方图,这是通过对本机中所有文件的创建时间和修改时间进行统计,然后按照时间区间进行分类,最后将每个区间中的文件数量以柱状图的形式展示出来。这个直方图可以帮助我们了解本机中文件的活动情况,比如哪些时间段是文件创建或修改的高峰期。 文件类型的直方图,这是通过对本机中所有文件的类型进行统计,然后将每种类型的文件数量以柱状图的形式展示出来。这个直方图可以帮助我们了解本机中各种文件类型的比例情况,从而对本机的文件类型分布有一个直观的认识。 以上就是对本机文件信息数据处理过程中需要完成的工作和需要绘制的直方图的详细说明。需要注意的是,这些工作都需要使用专业的数据分析工具来完成,比如Python的matplotlib库和pandas库,或者R语言等。在数据处理的过程中,还需要考虑数据的准确性和完整性,以及绘图的精确度和美观度。

%% 计算指标 INdex=[]; n=[]; for i=1:k A=NWP_cluster{i}; index=[]; for j=1:size(A,1) for x=1:size(A,2) index(j,x)=sum((A(j,:)-A(x,:)).^2)^0.5; end end INdex(k)=sum(sum(index))/(size(A,1)*size(A,2)-1)/2; n(k)=size(A,1)*size(A,2); end compactness=sum(INdex)/sum(n); disp(['紧致度为:',num2str(compactness)]) %% 找出原始不聚类的训练测试集 Label_test_first=[]; first_label=[]; Label_1=[L{1}' L{2}' L{3}']; for i=1:k Label=find(label==i); A=Label_1(find(label==i)); first_label{i}=Label(1+ceil(length(A)*5/6):end); A(1:ceil(length(A)*5/6))=[]; Label_test_first=[Label_test_first A]; end X=1:size(data,1); X(Label_test_first)=[]; Train_NWP_power_zhijie =[data(X,:) power_date(X,:)]; Test_NWP_power_zhijie =[data(Label_test_first,:) power_date(Label_test_first,:)]; csvwrite('不聚类的训练集.csv',Train_NWP_power_zhijie); csvwrite('不聚类的测试集.csv',Test_NWP_power_zhijie); %% 找出一重聚类结果的训练测试集 first_L1=[]; first_L2=[]; first_L3=[]; for i=1:k B=first_label{i}; L1_label=B(find(B<=length(L{1}))); L2_label=B(find(B<=length([L{1}' L{2}']))); L3_label=B(~ismember(B,L2_label)); L2_label=L2_label(~ismember(L2_label,L1_label)); first_L1=[first_L1;L1_label]; first_L2=[first_L2;L2_label]; first_L3=[first_L3;L3_label]; end first_cluster_test_1=Label_1(first_L1); first_cluster_test_2=Label_1(first_L2); first_cluster_test_3=Label_1(first_L3); first_cluster_train_1=Label_cluster{1}(~ismember(Label_cluster{1},first_cluster_test_1)); first_cluster_train_2=Label_cluster{2}(~ismember(Label_cluster{2},first_cluster_test_2)); first_cluster_train_3=Label_cluster{3}(~ismember(Label_cluster{3},first_cluster_test_3)); %% 划分出训练测试集 NWP_power_test_1=[data(first_cluster_test_1,:) power_date(first_cluster_test_1,:)]; NWP_power_test_2=[data(first_cluster_test_2,:) power_date(first_cluster_test_2,:)]; NWP_power_test_3=[data(first_cluster_test_3,:) power_date(first_cluster_test_3,:)]; NWP_power_train_1=[data(first_cluster_train_1,:) power_date(first_cluster_train_1,:)]; NWP_power_train_2=[data(first_cluster_train_2,:) power_date(first_cluster_train_2,:)]; NWP_power_train_3=[data(first_cluster_train_3,:) power_date(first_cluster_train_3,:)]; NWP_power_test=[{NWP_power_test_1} {NWP_power_test_2} {NWP_power_test_3}]; NWP_power_train=[{NWP_power_train_1} {NWP_power_train_2} {NWP_power_train_3}]; for i=1:k str_test=['NWP_power_test_',num2str(i),'.csv']; csvwrite(str_test,NWP_power_test{i}); str_train=['NWP_power_train_',num2str(i),'.csv']; csvwrite(str_train,NWP_power_train{i}); end

2023-07-14 上传