使用Kettle导入数据到ADB for PostgreSQL

摘要: 文章介绍了使用Kettle将数据导入到AnalyticDB for PostgreSQL,包括使用表输出方式(INSERT)和批量加载方式(COPY)导入到AnalyticDB for PostgreSQL的详细步骤和操作流程。

Kettle简介

Kettle(现也称为Pentaho Data Integration,简称PDI)是一款非常受欢迎的开源ETL工具软件,主要用于数据整合、转换和迁移。Kettle除了支持各种关系型数据库,HBase MongoDB这样的NoSQL数据源外,它还支持Excel、Access这类小型的数据源。并且通过这些插件扩展,kettle可以支持各类数据源。

下图显示了Kettle和ADB for PostgreSQL之间的关系,数据源通过Kettle进行ETL或数据集成操作以后可以和ADB for PostgreSQL进行交互:

使用Kettle导入数据到ADB for PostgreSQL

Kettle支持的数据来源非常丰富,主要包括以下分类:​

  • 表输入
  • 文本文件输入
  • 生成记录/自定义常量
  • 获取系统信息
  • 各类格式文件输入
  • Json输入
  • 以及其他输入

更详细的输入可以从界面中的“核心对象”的“输入”分类中查看。

Kettle支持的表输入来源自数据库连接中使用SQL语句获取,其中数据库连接支持非常丰富的连接方式,包括:

  • Native(JDBC)连接
  • ODBC连接
  • OCI连接
  • JNDI连接

通过这些连接方式,可以支持连接大多数主流数据库,如Oracle, SQL Server, MySQL, DB2, PostgreSQL, Sybase, Teradata等等,更详细的连接信息可以参考官方文档:https://help.pentaho.com/Documentation/8.2/Setup/Configuration/Define_Data_Connections

Kettle导入到ADB for PostgreSQL

Kettle支持导入到ADB for PostgreSQL的方式

目前,Kettle支持的数据导入到ADB for PostgreSQL的方式有:

导入方式说明
表输出
(INSERT方式)采用JDBC作为导入方式 支持批量插入,批量插入使用JDBC的batch insert方法
批量加载
(COPY方式)采用COPY作为导入方式 对于大表,COPY方式性能达到批量插入性能的10倍左右

表输出(INSERT方式)导入会流过Master节点并做解析之后分布到对应的Segment节点上,这种方式相对较慢并且不适合导入大量数据。批量加载(COPY方式)导入方式比INSERT语句插入多行的效率更高。

以下将分别介绍如何通过这两种方式将外部数据迁移到AnalyticDB for PostgresSQL。

准备工作

使用Kettle将外部数据导入AnalyticDB for PostgresSQL之前,需要完成以下准备工作。

  • 在本地主机中安装kettle
  • 在AnalyticDB for PostgreSQL中创建目标数据库、模式和表。

表输出方式导入数据到ADB for PostgreSQL

Kettle采用表输出方式,支持使用通用的JDBC接口,从各种数据库源导入到ADB for PostgreSQL中。以下就以MySQL为例说明如何通过JDBC接口导入数据到ADB for PostgreSQL中。

1.在Kettle中新建一个转换。
2.在转换中新建一个MySQL数据库连接作为输出源,详细的参数配置如下表所示。
配置参数时,不要勾选Use Result Streaming Cursor。

使用Kettle导入数据到ADB for PostgreSQL

配置项说明
连接名称数据连名
连接类型选择MySQL
连接方式选择Native(JDBC)
主机名MySQL的连接地址
数据库名称MySQL的数据库名
端口号连接地址对应的端口号
用户名用户名
密码用户密码

3.完成上述参数配置后,单击测试测试连通性,测试通过后单击确认。
4.在转换中新建一个Greenplum数据库连接作为输入源,详细的参数配置如下表所示。

使用Kettle导入数据到ADB for PostgreSQL

配置项说明
连接名称数据连名
连接类型选择Greenplum
连接方式选择Native(JDBC)
主机名AnalyticDB for PostgreSQL的连接地址
数据库名称AnalyticDB for PostgresSQL的数据库名
端口号连接地址对应的端口号
用户名用户名
密码用户密码

5.​完成上述参数配置后,单击测试测试连通性,测试通过后单击确认。
6.在kettle左侧核心对象的输入中,找到表输入,并将其拖动入到工作区。

使用Kettle导入数据到ADB for PostgreSQL

7.双击工作区的表输入,在表输入对话框中进行参数配置。

使用Kettle导入数据到ADB for PostgreSQL

8.在Kettle左侧核心对象的输出中,找到表输出,并将其拖动入到工作区。

使用Kettle导入数据到ADB for PostgreSQL

9.双击工作区的表输出,在表输出对话框中进行参数配置。

使用Kettle导入数据到ADB for PostgreSQL

10.新建一条表输入到表输出的连接线。

使用Kettle导入数据到ADB for PostgreSQL

11.单击白色三角箭头运行转换,观察运行日志和运行状态。

待MySQL数据成功导入AnalyticDB for PostgreSQL后,您就可以使用AnalyticDB for PostgreSQL进行数据分析。

批量加载方式导入数据到ADB for PostgreSQL

Kettle支持使用批量加载方式(COPY方式)导入数据到ADB for PostgreSQL中。下面步骤举例说明通过从外部文件中批量加载数据到ADB for PostgreSQL中。

1.在Kettle中新建一个转换。
2.在转换中新建一个文本文件输入作为输出源。

使用Kettle导入数据到ADB for PostgreSQL

3.双击文本文件输入的图表,选择输入的文本文件。

使用Kettle导入数据到ADB for PostgreSQL

4.在“内容”选项卡中配置输入文件的分隔符。

使用Kettle导入数据到ADB for PostgreSQL

5.在“字段”选项卡定义输入文件表中的字段。

使用Kettle导入数据到ADB for PostgreSQL

6.在转换中新建一个Greenplum数据库连接作为输入源,详细的参数配置如下表所示。

使用Kettle导入数据到ADB for PostgreSQL

7.完成上述参数配置后,单击测试测试连通性,测试通过后单击确认。
8.在Kettle左侧核心对象的批量加载中,找到PostgreSQL批量加载,并将其拖动入到工作区。

使用Kettle导入数据到ADB for PostgreSQL

9.新建一条文件输入到PostgreSQL批量记载的连接线。

使用Kettle导入数据到ADB for PostgreSQL

10.双击工作区的PostgreSQL批量加载图表,在批量加载对话框中进行参数配置:

使用Kettle导入数据到ADB for PostgreSQL

11.单击白色三角箭头运行转换,观察运行日志和运行状态

待数据成功导入AnalyticDB for PostgreSQL后,您就可以使用AnalyticDB for PostgreSQL进行数据分析。



本文作者:陆封

阅读原文

本文为云栖社区原创内容,未经允许不得转载。

相关推荐