【大数据】Azkaban学习笔记 (7)

5)通过azkabanweb管理平台创建project并上传job压缩包,启动执行该job

【大数据】Azkaban学习笔记

[atguigu@hadoop102 azkaban]$ pwd

/opt/module/azkaban

[atguigu@hadoop102 azkaban]$ ll

总用量 24

drwxrwxr-x.  2 atguigu atguigu 4096 1017 17:14 azkaban-2.5.0

drwxrwxr-x. 10 atguigu atguigu 4096 1018 17:17 executor

drwxrwxr-x.  2 atguigu atguigu 4096 1018 20:35 jobs

drwxrwxr-x.  2 atguigu atguigu 4096 1018 20:54 lib

-rw-rw-r--.  1 atguigu atguigu   23 1018 20:55 output

drwxrwxr-x.  9 atguigu atguigu 4096 1018 17:17 server

[atguigu@hadoop102 azkaban]$ cat output

this is a java progress

3.3 HDFS操作任务

1)创建job描述文件

[atguigu@hadoop102 jobs]$ vim fs.job

#hdfs job

type=command

command=http://www.likecs.com/opt/module/hadoop-2.7.2/bin/hadoop fs -mkdir /azkaban

2)将job资源文件打包成zip文件

[atguigu@hadoop102 jobs]$ zip fs.zip fs.job

adding: fs.job (deflated 12%)

3)通过azkabanweb管理平台创建project并上传job压缩包

4)启动执行该job

5)查看结果

【大数据】Azkaban学习笔记

【大数据】Azkaban学习笔记

3.4 mapreduce任务

mapreduce任务依然可以使用azkaban进行调度

1) 创建job描述文件,及mr程序jar

[atguigu@hadoop102 jobs]$ vim mapreduce.job

#mapreduce job

type=command

command=http://www.likecs.com/opt/module/hadoop-2.7.2/bin/hadoop jar /opt/module/hadoop-2.7.2/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /wordcount/input /wordcount/output

2) 将所有job资源文件打到一个zip包中

[atguigu@hadoop102 jobs]$ zip mapreduce.zip mapreduce.job

adding: mapreduce.job (deflated 43%)

3)在azkabanweb管理界面创建工程并上传zip

4)启动job

5)查看结果

【大数据】Azkaban学习笔记

【大数据】Azkaban学习笔记

3.5 Hive脚本任务

1)创建job描述文件和hive脚本

1Hive脚本:student.sql

[atguigu@hadoop102 jobs]$ vim student.sql

use default;

drop table student;

create external table student(id int, name string)

row format delimited fields terminated by \'\t\';

load data local inpath \'/opt/module/datas/student.txt\' into table student;

insert overwrite local directory \'/opt/module/datas/student\'

row format delimited fields terminated by \'\t\'

select * from student;

2Job描述文件:hive.job

[atguigu@hadoop102 jobs]$ vim hive.job

#hive job

type=command

command=http://www.likecs.com/opt/module/hive/bin/hive -f /opt/module/azkaban/jobs/student.sql

1) 将所有job资源文件打到一个zip包中

[atguigu@hadoop102 jobs]$ zip hive.zip hive.job

adding: hive.job (deflated 21%)

3)在azkabanweb管理界面创建工程并上传zip

4)启动job

5)查看结果

[atguigu@hadoop102 student]$ cat /opt/module/datas/student/000000_0

1001    yangyang

1002    bobo

1003    banzhang

1004    pengpeng

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/zwsgzd.html