Informatica PowerCenter 7.1简易使用指南

需积分: 10 2 下载量 58 浏览量 更新于2024-07-23 收藏 854KB PDF 举报
"Informatica PowerCenter使用手册" Informatica PowerCenter是一款强大的数据集成工具,用于企业级的数据整合、清洗和迁移。本手册详细介绍了如何使用该软件进行数据处理工作流程。 1. 使用Informatica PowerCenter的准备工作是成功操作的基础。这包括确保已经正确安装了Informatica Repository Server和Informatica Server。Repository Server是Informatica的核心组件,存储所有元数据,而Server则是执行数据处理任务的引擎。在Windows系统中,可以通过控制面板的服务管理器来启动这两个服务;在UNIX环境中,需要分别在安装目录下的RepServer和Server目录运行pmrepserver和pmserver命令。 2. 创建资料库是使用Informatica的第一步,资料库是存储所有项目、任务、映射和工作流元数据的地方。管理员需要通过Informatica的管理工具来创建和管理这些资料库。 3. 创建Folder是组织项目的一种方式,有助于保持工作环境整洁并方便团队协作。Folder可以包含数据源、目标、映射、工作流等元素,根据业务需求进行分类。 4. Informatica PowerCenter的客户端工具包括Designer、Workflow Manager、Monitor等,它们提供了全面的功能,从设计数据转换到监控工作流执行。 5. 工作流程分为多个步骤,首先是连接资料库,使用Designer客户端连接到Repository Server,以便访问和操作元数据。 6. 打开Folder后,可以浏览和操作Folder内的对象,如数据源、目标和映射。 7. 引入数据源结构是指在Designer中定义和配置数据源,包括数据库表、文件等,这是创建映射和转换的第一步。 8. 引入目标结构则是在设计阶段确定数据将被加载或更新的目标位置,例如数据库表或文件。 9. 设计Mapping是构建数据流逻辑的过程,它定义了数据从源到目标的转换路径,包括各种转换步骤如过滤、清洗、聚合等。 10. 设计Workflow是定义任务执行顺序和时间调度的关键步骤,它将映射组合成一个可执行的工作流程,并可以设置触发条件和依赖关系。 11. 运行Workflow是实际执行数据处理操作的阶段,通过Workflow Manager启动和监控工作流的执行。 12. 查看作业运行情况是通过Monitor工具进行的,它可以提供详细的运行日志、错误报告以及性能指标,帮助用户了解任务执行的状态和效果。 Informatica PowerCenter提供了一套完整的数据集成解决方案,从准备环境到实际执行,涵盖了一系列详细步骤,确保用户能够高效、准确地进行数据处理。同时,配合安装手册和中文培训资料,用户可以更深入地理解和掌握Informatica PowerCenter的各项功能。

%% 计算指标 INdex=[]; n=[]; for i=1:k A=NWP_cluster{i}; index=[]; for j=1:size(A,1) for x=1:size(A,2) index(j,x)=sum((A(j,:)-A(x,:)).^2)^0.5; end end INdex(k)=sum(sum(index))/(size(A,1)*size(A,2)-1)/2; n(k)=size(A,1)*size(A,2); end compactness=sum(INdex)/sum(n); disp(['紧致度为:',num2str(compactness)]) %% 找出原始不聚类的训练测试集 Label_test_first=[]; first_label=[]; Label_1=[L{1}' L{2}' L{3}']; for i=1:k Label=find(label==i); A=Label_1(find(label==i)); first_label{i}=Label(1+ceil(length(A)*5/6):end); A(1:ceil(length(A)*5/6))=[]; Label_test_first=[Label_test_first A]; end X=1:size(data,1); X(Label_test_first)=[]; Train_NWP_power_zhijie =[data(X,:) power_date(X,:)]; Test_NWP_power_zhijie =[data(Label_test_first,:) power_date(Label_test_first,:)]; csvwrite('不聚类的训练集.csv',Train_NWP_power_zhijie); csvwrite('不聚类的测试集.csv',Test_NWP_power_zhijie); %% 找出一重聚类结果的训练测试集 first_L1=[]; first_L2=[]; first_L3=[]; for i=1:k B=first_label{i}; L1_label=B(find(B<=length(L{1}))); L2_label=B(find(B<=length([L{1}' L{2}']))); L3_label=B(~ismember(B,L2_label)); L2_label=L2_label(~ismember(L2_label,L1_label)); first_L1=[first_L1;L1_label]; first_L2=[first_L2;L2_label]; first_L3=[first_L3;L3_label]; end first_cluster_test_1=Label_1(first_L1); first_cluster_test_2=Label_1(first_L2); first_cluster_test_3=Label_1(first_L3); first_cluster_train_1=Label_cluster{1}(~ismember(Label_cluster{1},first_cluster_test_1)); first_cluster_train_2=Label_cluster{2}(~ismember(Label_cluster{2},first_cluster_test_2)); first_cluster_train_3=Label_cluster{3}(~ismember(Label_cluster{3},first_cluster_test_3)); %% 划分出训练测试集 NWP_power_test_1=[data(first_cluster_test_1,:) power_date(first_cluster_test_1,:)]; NWP_power_test_2=[data(first_cluster_test_2,:) power_date(first_cluster_test_2,:)]; NWP_power_test_3=[data(first_cluster_test_3,:) power_date(first_cluster_test_3,:)]; NWP_power_train_1=[data(first_cluster_train_1,:) power_date(first_cluster_train_1,:)]; NWP_power_train_2=[data(first_cluster_train_2,:) power_date(first_cluster_train_2,:)]; NWP_power_train_3=[data(first_cluster_train_3,:) power_date(first_cluster_train_3,:)]; NWP_power_test=[{NWP_power_test_1} {NWP_power_test_2} {NWP_power_test_3}]; NWP_power_train=[{NWP_power_train_1} {NWP_power_train_2} {NWP_power_train_3}]; for i=1:k str_test=['NWP_power_test_',num2str(i),'.csv']; csvwrite(str_test,NWP_power_test{i}); str_train=['NWP_power_train_',num2str(i),'.csv']; csvwrite(str_train,NWP_power_train{i}); end

2023-07-14 上传