这篇文章主要介绍了DataWorks如何使用Shell节点调用自定义资源组执行脚本,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。
一、设置自定义资源组并配置权限ECS权限
1.1根据文档添加对应空间下的自定义资源组
https://help.aliyun.com/document_detail/169950.html
1.2查看添加的自定义资源组
1.3登陆添加为自定义资源组的ECS,建立对应目录,并给admin用户设置权限
目录下的odps_haudong为MaxCompute的客户端
upfile.txt内容为
chown -R amdin:admin /home
二、DataWorks新建Shell节点,并进行编辑脚本
2.1创建临时节点,并执行以下语句
create table shell_test(key string);insert overwrite table shell_test values('hadoop'),('kafka'),('habse');select * from shell_test;
查看当前数据展示
2.2建立手动业务流程,并配置Shell脚本,以及添加调度资源组为自定义资源组
/home/export/odps_huadong/bin/odpscmd -e "tunnel upload -overwrite true /home/export/upfile.txt shell_test"
三、提交shell节点到生产环境,并进行执行
3.1提交业务流程
3.2发布任务到生产环境,并在手动任务执行
显示执行命令成功
四、检测命令是否执行
4.1返回数据开发界面执行语句,确认数据是否被覆盖写入
select * from shell_test;
可以看到数据写入成功
感谢你能够认真阅读完这篇文章,希望小编分享的“DataWorks如何使用Shell节点调用自定义资源组执行脚本”这篇文章对大家有帮助,同时也希望大家多多支持天达云,关注天达云行业资讯频道,更多相关知识等着你来学习!