使用Data Lake Analytics读/写RDS数据
Data Lake Analytics 作为云上数据处理的枢纽,最近加入了对于RDS(目前支持 MySQL , SQLServer ,Postgres 引擎)的支持, 这篇教程带你玩转 DLA 的 RDS 支持。我们文章中会以 MySQL 的介绍为主,最后会简要介绍下 SQLServer 与 Postgres 的一些不同点、需要注意的地方。
创建数据库
在 DLA 里面创建一个底层映射到 MySQL 的外表的语法如下:
跟普通的建表不同的是这里多了两个属性: VPC_ID 和 INSTANCE_ID 。VPC_ID是你的RDS所在VPC的ID, 如下图所示:

而 INSTANCE_ID 则是你的RDS实例ID, 在RDS的详情页面可以找到:

建表需要这两个额外信息是因为现在用户的数据库都是处于用户自己的VPC内部,默认情况下 DLA 是访问不了用户 VPC 里面的资源的,为了让DLA能够访问到用户RDS里面的数据,我们需要利用阿里云的VPC反向访问技术。
权限声明: 当您通过上述方式建库,就视为您同意我们利用VPC反向访问的技术去读写您的RDS。
另外您还需要把 100.104.0.0/16 IP地址段加入到你的RDS的白名单列表,这是我们VPC反向访问的IP地段,如下图:

创建表
数据库建完之后,我们可以建表了,我们先在你的 RDS 里面建立如下的 person 表用来做测试:
并且向里面插入一下测试数据:
然后就可以在 DLA 的数据库里面建立相应的映射表了:
这样我们通过MySQL客户端连接到 DLA 数据库上面,就可以对 MySQL 数据库里面的数据进行查询了:
ETL: 把数据从OSS里面清洗出来写入RDS
其实 DLA 里面使用 RDS 的典型场景不是把RDS的数据读出来进行分析,因为RDS本身能承载的数据量有限,不适合大数据分析,更多的场景是在我们对存储在OSS/OTS上的大数据进行分析,分析完成之后把结果数据回写到 RDS 里面供前台业务使用。这种场景在DLA里面非常容易实现,还是举前面 person 表例子,下面的语句把 oss_db 里面 customer 的十条记录进行了一些转换然后插入了我们的 hello_mysql_vps_rds.person 表:
SQLServer 和 PostgreSQL
SQLServer 和 PostgreSQL 总体用法上跟 MySQL 类似,但是因为 MySQL 里面 database 跟 schema 是等价的,只有一层结构,而 SQLServer 和 PostgreSQL面则有 database 和 schema 的两层结构,因此在建库和建表的时候都有点稍微不一样:
建库
SQLServer
- 首先
CATALOG要指定sqlserver。 LOCATION要指定数据库的名字,指定的方式跟MySQL不一样, 是通过DatabaseName=dla_test的方式来指定。这是 SQLServer JDBC URL 定义的,不是DLA定义的。
PostgreSQL
这里跟 MySQL 几乎一样,除了 CATALOG 要指定成 postgresql 。
建表
建表这块的差异主要在 table_mapping 这个字段里面, MySQL 的 table_mapping里面只有表名(person ):
而 SQLServer 和 PostgreSQL 的 table_mapping 里面则要有schema的名字和表名:
总结
Happy DLAing!
本文作者:xumingmingv
本文为云栖社区原创内容,未经允许不得转载。

浙公网安备 33010602011771号