欢迎光临散文网 会员登陆 & 注册

博学谷狂野大数据架构4期

2022-09-28 12:56 作者:666好听的名字  | 我要投稿


底部评

数据采集层:

1、离线:flume、Sqoop、Nifi

2、实时:filebeat、nginx+lua

补充:当数据量达到5亿左右的时候,filebeat+logstash采集数据到hdfs,数据会出现丢失的情况,所以此种方案不适合用于大数据存储到hdfs


数据存储层:

1、hdfs用于存储离线大数据量

2、kudu用于存储mysql关系数据库更新变化的数据

3、es存储一些log日志,比如说我们需要快速的定位某一个业务的log情况

4、kafka作为消息中间件,存储filebeat或者是flume采集的日志


数据分析层:

1、es,分析一些log

2、hive适用于分析一些离线大数据(基于磁盘IO分析)

3、impala、presto适用于分析一些准实时日志(要求快速出数据,基于内存分析)

4、spark core+spark sql 适用于分析一些离线数据,自定义解析规则

5、spark streaming适用于分析一些实时(不是完全实时)数据

6、flink、jstorm进行分析完全实时的数据


数据调度层:

1、airflow:使用于大集群,阿里的调度系统就是根据airflow二次开发,配置复杂,python脚本实现

2、azkaban:cpu和内存要求不高,主从配置支持的不算太好,适用于小集群,以job的文件实现,配置简单

3、oozie:通常hue集成,单独的使用oozie的情况下,配置及其复杂,不建议使用,所有的任务是以mr的形式进行的,可支持复杂的依赖调度

4、jobX:cpu使用高,bug还没修复,所以造成agent的cpu维持在1个左右,配置简单,只支持依赖调度,并行调度不支持

5、crontab:一般用于每分钟调度一次的任务,不支持依赖调度、并行调度(配置复杂,通过脚本自定义控制),没有可视化界面,不能准确的判断任务是否成功或者是失败.......


博学谷狂野大数据架构4期的评论 (共 条)

分享到微博请遵守国家法律