DataWorks如何使用Shell节点调用自定义资源组执行脚本
更新:HHH   时间:2023-1-7


这篇文章主要介绍了DataWorks如何使用Shell节点调用自定义资源组执行脚本,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。

一、设置自定义资源组并配置权限ECS权限

1.1根据文档添加对应空间下的自定义资源组
https://help.aliyun.com/document_detail/169950.html
1.2查看添加的自定义资源组

1.3登陆添加为自定义资源组的ECS,建立对应目录,并给admin用户设置权限

目录下的odps_haudong为MaxCompute的客户端

upfile.txt内容为

chown -R amdin:admin /home

二、DataWorks新建Shell节点,并进行编辑脚本

2.1创建临时节点,并执行以下语句

create table shell_test(key string);insert overwrite table shell_test values('hadoop'),('kafka'),('habse');select * from shell_test;

查看当前数据展示

2.2建立手动业务流程,并配置Shell脚本,以及添加调度资源组为自定义资源组

/home/export/odps_huadong/bin/odpscmd  -e "tunnel upload -overwrite true /home/export/upfile.txt  shell_test"

三、提交shell节点到生产环境,并进行执行

3.1提交业务流程


3.2发布任务到生产环境,并在手动任务执行


显示执行命令成功

四、检测命令是否执行

4.1返回数据开发界面执行语句,确认数据是否被覆盖写入

select * from shell_test;

可以看到数据写入成功

感谢你能够认真阅读完这篇文章,希望小编分享的“DataWorks如何使用Shell节点调用自定义资源组执行脚本”这篇文章对大家有帮助,同时也希望大家多多支持天达云,关注天达云行业资讯频道,更多相关知识等着你来学习!

返回云计算教程...