AWS之Glue使用方法

编程入门 行业动态 更新时间:2024-10-27 19:22:04

AWS之Glue<a href=https://www.elefans.com/category/jswz/34/1769874.html style=使用方法"/>

AWS之Glue使用方法

Glue是AWS的云上ETL工具,核心是Spark,查询也是先获取数据源的元数据,再通过元数据溯源数据。
本文示范使用Glue把数据从RDS抽到redshift的操作
总体步骤:
1.连接数据源
2.建立爬网程序
3.运行爬网程序生成元数据表
4.建立作业
5.运行作业
(再后面还可建立工作流程实现作业流,本文未涉及)

建立连接

连接可以是(半结构化)文件,和各种数据库,和kafka
图中的“数据库”是AWS对元数据表集合的叫法而已,和我们说的数据库不是一个概念,“表”是指元数据表,“连接”是指数据连接
添加元数据表的方法分手动添加爬网程序添加(其实就是自动添加,和爬虫没关系,为了可以及时侦测元数据改变,爬网程序可以重复定时按计划进行,所以推荐爬网程序添加)
分类器可以自定义识别半结构化文件方式

首先按引导各自连接RDS和redshift,其中有一步容易踩坑,需要IAM角色权限,细节如下,缺一不可:
1.第一步创建IAM角色并给AWSGlueServiceRole这个策略权限/
2.保证RDS和redshift所在的VPC终端节点列表中加入了S3

最后建立连接如下

建立爬网程序

按引导建立爬网程序获取下图这张RDS中的表的元数据

运行成功后会在“表”中会生成一张元数据表

建立作业

PS:Glue的作业是自动临时搭建spark环境的,大概需要15分钟,然后才开始跑,作业完成后5分钟若没有下个作业使用该环境便会自动销毁;数据少可以不用spark,只用python shell来进行ETL,启动时间短,但步骤好麻烦学不来,宁愿用spark等15分钟

这一步的IAM同样使用建立连接时的IAM角色





运行作业,等待15分钟(上面说的需要搭环境),报succeeded后用navicat查看redshift中已经创建并同步了这张表数据

更多推荐

AWS之Glue使用方法

本文发布于:2023-06-29 22:57:27,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/952004.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:使用方法   AWS   Glue

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!