注意:以下文档只适用于TOP接口,请谨慎使用!

文档中心 > 聚石塔

步骤4:查看同步日志

更新时间:2023/06/20 访问次数:8771

数据集成,是阿里巴巴对外提供的稳定高效、弹性伸缩的数据同步平台。 致力于提供复杂网络环境下、丰富的异构数据源之间数据高速稳定的数据移动及同步能力。丰富的数据源支持:文本存储(FTP/SFTP/OSS/多媒体文件 等)、数据库(RDS/DRDS/MySQL/PostgreSQL 等)、NoSQL(Memcache/Redis/MongoDB/HBase 等)、大数据(MaxCompute/ AnalyticDB/HDFS 等) 、MPP数据库(HybridDB for MySQL等)。正因为数据集成兼容了复杂网络环境下,多种数据库之间共通,所以在使用的时候,难免会遇到出错的情况,那么下面我们来解析一下数据集成的日志组成。


一、任务是从哪里开始的


image.png


如图所示:“Start Job” 表示开始这个任务;Start Job 下面会有段日志 “running in Pipeline[XXXXX]” 主要是用来区分任务是跑在什么机器上,如果XXXXX中含有“ basecommon_group_XXXX ”等字样,说明是跑在公共资源组的机器上,如果不包含 “ basecommon_group_XXXX ” 的字样,说明在您的自定义资源组上运行。如何查看具体执行任务的机器名,请参考“任务运行情况这节的介绍”。


二、实际运行的任务代码


在任务开始以后,日志中会打印出来实际执行的任务代码(出于安全考虑,我们会将敏感信息以*号表示),如图所示:


image.png


图示这个任务的实际代码样例如下:


Reader: odps
shared=[false ]
bindingCalcEngineId=[9617 ]
column=[["t_name","t_password","pt"] ]
description=[connection from odps calc engine 9617]
project=[XXXXXXXXX ]
*accessKey=[******** ]
gmtCreate=[2016-10-13 16:42:19 ]
type=[odps ]
accessId=[XXXXXXXXX ]
datasourceType=[odps ]
odpsServer=[http://service.odps.aliyun.com/api]
endpoint=[http://service.odps.aliyun.com/api]
partition=[pt=20170425 ]
datasourceBackUp=[odps_first ]
name=[odps_first ]
tenantId=[168418089343600 ]
subType=[ ]
id=[30525 ]
authType=[1 ]
projectId=[27474 ]
table=[t_name ]
status=[1 ]
Writer: odps
shared=[false ]
bindingCalcEngineId=[9617 ]
column=[["id","name","pt"] ]
description=[connection from odps calc engine 9617]
project=[XXXXXXXXX ]
*accessKey=[******** ]
gmtCreate=[2016-10-13 16:42:19 ]
type=[odps ]
accessId=[XXXXXXXXX ]
datasourceType=[odps ]
odpsServer=[http://service.odps.aliyun.com/api]
endpoint=[http://service.odps.aliyun.com/api]
partition=[ ]
truncate=[true ]
datasourceBackUp=[odps_first ]
name=[odps_first ]
tenantId=[XXXXXXXXX ]
subType=[ ]
id=[30525 ]
authType=[1 ]
projectId=[27474 ]
table=[test_pm ]
status=[1 ]


这是一个典型的 Maxcompute(原ODPS)数据源同步到 Maxcompute 数据源的任务代码,关于这段任务代码的解析,请参考MaxCompute ReaderMaxCompute Writer


三、任务运行情况


上面我们介绍了实际运行的任务代码,在实际运行的任务代码下,会打印出来该任务的运行情况,如图所示:


image.png


图中用红框标记出来的内容,记录了这个任务何时开始运行,何时运行结束。当:“State: 2(WAIT)” State 状态为2的时候,还在等待任务运行;

当:“State: 3(RUN) ” State 状态为3的时候,表示任务正在运行;

当:“State: 0(SUCCESS)” State 状态为0的时候,表示任务已经成功运行完毕;


注意:在任务运行完毕的记录下面,有“INFO Start execute shell on node XXXXXXX” 这段话表示,该任务实际运行在 XXXXXXX 这台机器上。


排错小助手:当有脏数据的时候,无法将数据写入进去,日志就会报如下错误:


image.png


四、详细运行日志


其实数据同步的任务日志,到上节为止,就结束了,下面的一长串日志,是DataX的详细执行日志(数据集成功能是针对阿里巴巴开源项目DataX做了一层封装),如图所示:


image.png


很多同学运行数据同步任务会报错,可以参考如下文档先进行错误排查:常见报错

若常见报错无法解决您的问题,请带上完整的日志提工单反馈给我们。

 

FAQ

关于此文档暂时还没有FAQ
返回
顶部