DataService操作技巧介绍材料.doc

上传人:小** 文档编号:3003206 上传时间:2020-06-20 格式:DOC 页数:22 大小:947.89KB
返回 下载 相关 举报
DataService操作技巧介绍材料.doc_第1页
第1页 / 共22页
DataService操作技巧介绍材料.doc_第2页
第2页 / 共22页
点击查看更多>>
资源描述

《DataService操作技巧介绍材料.doc》由会员分享,可在线阅读,更多相关《DataService操作技巧介绍材料.doc(22页珍藏版)》请在得力文库 - 分享文档赚钱的网站上搜索。

1、,.DataServices培训总结-操作手册目录一、DS简介2二、DS数据加载方式2三、DS进行数据抽取模型开发的基本过程3四、DS创建数据源系统和目标系统的数据存储31、Oracle数据库作为数据源系统32、ECC作为数据源系统43、HANA数据库作为目标系统5五、全量加载过程51、创建Project和Job52、导入源表的元数据到资源库63、创建Data Flow64、设置源表和目标表75、手工执行Job7六、基于表比较的增量加载81、在Job下定义工作流82、在工作流中定义数据流83、加入Table_Comparison控件94、设置Table_Comparison控件9七、基于时间戳

2、的增量加载101、在Job下定义工作流102、定义Script控件103、定义处理新增数据的数据流和处理更新数据的数据流11八、DS中常用控件介绍131、Key_Generation132、Case133、Merge144、Validation155、设置过滤器和断点15九、定义Job定期执行161、登录Data Services Management Console162、定义Batch Job Schedules17十、其他注意事项18一、DS简介SAP BusinessObjects Data Services是通过SAP HANA认证的ETL工具。 采用数据批量处理的方式,定期执行后台

3、作业,将数据从多个业务系统中抽取出来,并进行必要的处理(转换,合并,过滤,清洗),然后再加载到HANA数据库中 。DS的组件之间的关系: u Management Consol: 管理控制台是网页版DS管理工具,可以进行一些系统配置和定义Job执行 u Designer: Designer是一个具有易于使用的图形用户界面的开发工具。它允许开发人员定义包括数据映射,转换和控制逻辑的数据管理应用程序,创建包含工作流(作业执行定义)和数据流 (数据转换定义)的应用程序 u Repository: 应用程序设计器使用的本地资源库用来存储Data Services对象(如项目,作业,工作流,和数据流)的

4、定义和源和目标的元数据 u Job server: 作业服务器启动数据移动的从多个不同种类的源集成数据的引擎,执行复杂的数据转换,并管理从ERP系统和其他源的抽取和事务 二、DS数据加载方式u 全量加载 u 增量上载 a) 基于表比较 作业在执行时读取数据源和目标中的全部数据,在服务器的内存中进行比较,计算数据差异 b) 时间戳增量 需要在数据源中添加时间戳字段,一般为创建时间和最后修改时间,在抽取作业中定义对两个时间戳字段进行对比,符合条件的创建时间条目进行插入,符合条件的修改时间条目进行更新 c) 利用数据库CDC(changed data capture) 首先需要开启数据库的CDC服务

5、,为数据库实例启用CDC功能,为源表启用CDC功能。在这种模式下,DS的增量更新不再直接访问源表,而是在与源表相关的变更记录表中读取增量 三、DS进行数据抽取模型开发的基本过程u 为数据源创建数据存储 u 导入源表的元数据到资源库u 为SAP HANA目标系统创建数据存储u 新建DS项目和批量作业u 新建DS数据流:定义源表和目标表,定义变量、编辑Query和Map_CDC_Operation u 执行批量作业 四、DS创建数据源系统和目标系统的数据存储1、Oracle数据库作为数据源系统登录Data Services Designer,在本地对象库的数据存储页签中单击鼠标右键,选择新建菜单创

6、建数据存储“EAM_TEST”,在弹出的对话框中输入EAM数据库的连接信息2、ECC作为数据源系统同样在创建DataStore时,输入ECC的连接信息3、HANA数据库作为目标系统在创建DataStore时,输入HANA数据库的连接信息五、全量加载过程1、创建Project和Job在本地对象库的project页签中单击鼠标右键,选择新建菜单,创建项目“ERP_DS”。双击该项目,在“Project Area”,可以在该项目下创建Job2、导入源表的元数据到资源库在本地对象库的数据存储页签中,选择源系统的数据存储,单击鼠标邮件,选择“Import By Name”,输入需要导入到资源库的表名称。

7、导入成功后,在数据存储的table目录下可以看到导入的表3、创建Data Flow 单击“General”Job,在右边空白区域单击鼠标邮件,选择“Add New”-“Data Flow”4、设置源表和目标表单击创建的Data Flow,将需要导入到HANA数据库中的源表拖入到Data Flow区域中,将Data Flow区域右侧的工具条中的模版表拖入Data Flow区域创建模版表输入模版表名称、HANA目标系统的数据存储、HANA数据库存放DS抽取数据表的用户名。连接源表和目标表双击模版表,设置“Options”中的“Use NVARCHAR for VARCHAR”5、手工执行Job选择

8、Job,单击鼠标右键,选择“Execute”执行成功之后,在HANA数据库中的ERPDSUSER下可以看到“T161T”,可以查看数据表的内容。执行过程信息和结果可以在监控器中查看。六、基于表比较的增量加载1、在Job下定义工作流2、在工作流中定义数据流在数据流中定义源表和模版表,执行Job,执行成功之后,在目标系统数据存储的Template Table目录下可以看到创建的模版表3、加入Table_Comparison控件选择模版表,单击鼠标邮件,选择“Import Table”。模版表会更新为Tables目录下的数据表。通过将转换-数据集成中的“Table_Comparison”控件拖入到数

9、据流中的方式添加“Table_Comparison”控件将源表连接“Table_Comparison”控件,“Table_Comparison”控件连接目标表。4、设置Table_Comparison控件双击“Table_Comparison”控件,设置相关参数:比较的目标表、表的主键,需要比较的字段。当需要比较的字段为空时,会比较所有字段。建议按照需要填写需要比较的字段,可以加快处理速度。保存后执行Job。七、基于时间戳的增量加载1、在Job下定义工作流在工作流中定义Script控件,读取数据抽取后最新的创建时间和更改时间,定义一个处理新增数据的数据流和一个处理更新数据的数据流2、定义Scr

10、ipt控件在Script控件中需要使用变量存放读取的最新的创建时间和最新的更改时间。选择Job,在工具栏选择“Variables”按钮,创建全局变量双击“Script”控件,编写SQL语句,从HANA数据库表中读取最新的创建时间和更改时间3、定义处理新增数据的数据流和处理更新数据的数据流双击“EBAN_New”数据流,加载源表,Query,Map_CDC_Operation控件和目标表双击Query,在输出字段中增加“Sequence”和“Operation”两个字段。“Sequence”字段使用函数gen_row_num()进行赋值,“Operation”赋值为I在Quey中设置Where条

11、件双击Map_CDC_Operation控件,设置CDC Columns同样的方式定义“EBAN_Upd”数据流,在Query的where条件中定义为在Query的数据结果中增加“Sequence”和“Operation”两个字段。“Sequence”字段使用函数gen_row_num()进行赋值,“Operation”赋值为U保存后,执行Job。可以通过修改源系统数据测试基于时间戳的增量加载。八、DS中常用控件介绍1、Key_Generation在源表基础上为目标表重新生成主键在Query中增加“ID”字段,赋值为0。在Key_Generation控件中设置目标表、主键字段、主键值增加量2、

12、Case将源表根据规则进行拆分双击Case控件,设置拆分条件当SOURCE = 1时,输出SPFLI_1,当SOURCE =2时,输出SPFLI_23、Merge将具有同样数据结构的源表进行合并在Query中增加输出字段Source,赋值为1。在Query1中增加输出字段Source,赋值为2。在Merge中将两个表的内容合并输出。4、Validation提取数据源表中的正确数据,将错误数据单独存放在其他表中双击Validation控件,设置“Validation Rule”5、设置过滤器和断点过滤器和断点结合使用,用于设置Debug的条件选择源表到目标表的连接线,单击鼠标右键,选择Set F

13、ilter/Breakpoint,设置Debug条件(当满足某种条件时进入断点,或者在满足过滤条件的同时执行多少条数据后时进入断点)选择Job,单击鼠标右键,选择Start debug工具栏上的按钮可以控制执行下一条数据、继续执行、终止DebugDebug过程中进入断点后,可以一次查看数据加载结果九、定义Job定期执行1、登录Data Services Management Console单击工具栏的“Data Services Management Console”按钮进入Data Services Management Console的登录界面单击进入Administrator界面2、定义

14、Batch Job Schedules在Batch Job Configuration页签选择Add Schedules 进入批量执行Job的设置界面 可以设置每周的某一天执行(一周执行一次)或则每月的某一天执行(一个月执行一次),也可以设置为每天都执行。都选“Recurring”则会定期循环执行,否则只执行一次。可以设置一天执行一次,也可以一天执行多次,设置开始执行时间。上图中如果设置为一天多次执行,开始时间为上午1点,持续时间为600分钟,间隔时间为360分钟,则Job会在一天的上午1点和上午6点各执行一次。如果设置时间间隔为240分钟,则Job会在一天的上午1点、上午5点和上午9点各执行

15、一次。(总持续时间不超过10小时)。十、其他注意事项1、 客户端安装包需要注意和服务器DS版本一致2、 在第一次登录CMS信息时,无法成功。ping sapdstest也失败,需要在host文件中添加对应的地址和域名3、 连接Oracle数据库作为数据源时,需要在客户端上安装Oracle客户端,设置tnsname.ora文件,设置环境变量ORACLE_HOME之后重启服务器;连接HANA数据库时,需要安装HANA客户端4、 在连接ECC作为数据源时,需要开启系统跨客户端编辑权限5、 在HANA中新建ERPDSUSER作为存放DS抽取表的Schema,将ERPDSUSER给SLTADM赋权限,包括查询和创建的权限6、 全量抽取时,目标表不能使用导入表,需要使用模版表,模版表每次会删除重建,导入表会出现主键重复的错误提示7、 基于时间戳的增量加载,源表中需要有创建时间和更改时间两个字段,分别处理新增和修改的数据8、 如果只是设置过滤器而没有设置断点,在进行Debug时,Job会执行成功,过滤器有效。如果不进行Debug,直接执行,设置的过滤器不起作用

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 技术资料 > 其他杂项

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知得利文库网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号-8 |  经营许可证:黑B2-20190332号 |   黑公网安备:91230400333293403D

© 2020-2023 www.deliwenku.com 得利文库. All Rights Reserved 黑龙江转换宝科技有限公司 

黑龙江省互联网违法和不良信息举报
举报电话:0468-3380021 邮箱:hgswwxb@163.com