大数据——数据流式处理「建议收藏」

大数据——数据流式处理「建议收藏」一、概念大数据中包含两种处理方式:流处理和批处理。流处理:即流式处理。流式处理假设数据的潜在价值是数据的新鲜度,需要尽快处理得到结果。在这种方式下,数据以流的方式到达。在数据连续到达的过程中,由于流携带了大量数据,只有小部分的流数据被保存在有限的内存中。流处理方式用于在线应用,通常工作在秒或毫秒级别。 批处理:批处理方式中,数据首先被存储,然后再分析。MapReduce是非常重要的…

大家好,又见面了,我是你们的朋友全栈君。

一、概念

   大数据中包含两种处理方式:流处理和批处理。

  • 流处理:即流式处理。流式处理假设数据的潜在价值是数据的新鲜度,需要尽快处理得到结果。在这种方式下,数据以流的方式到达。在数据连续到达的过程中,由于流携带了大量数据,只有小部分的流数据被保存在有限的内存中。流处理方式用于在线应用,通常工作在秒或毫秒级别。
  • 批处理:批处理方式中,数据首先被存储,然后再分析。MapReduce是非常重要的批处理模型。MapReduce的核心思想是,数据首先被分为若干小数据块chunks,随后这些数据块被并行处理并以分布的方式产生中间结果,最后这些中间结果被合并产生最终结果。

二、主流组件

    目前主流的流处理组件包括:Strom、Spark Streaming、KafKa、Flume、Flink、S3等,接下来将对上述组件做简要介绍。

  •     Flume:一个可以收集例如日志、事件等数据资源,并将这些庞大数据从各项数据资源中集中存储的工具/服务。其设计的原理也是基于将数据流,如日志数据从各种网站服务器上汇集起来存储到HDFS,HBase等集中存储器中。其结构图如下:

                                              大数据——数据流式处理「建议收藏」

     Flume优势

       1)Flume可以将源数据存储到任何集中存储器中,如:HDFS、HBase;

      2)数据收集速度超过写入速度时,提供平衡机制;

      3)提供上下文路由特征;

      4)Flume管道基于事务,保证数据传送和接受的一致性;

      5)Flume是可靠,高容错性的,提供定制。·

   Flume结构

                                              大数据——数据流式处理「建议收藏」

   如图所示,数据发生器产生的数据被单个运行在数据发生器所在服务器上的agent所通过事件event的方式被收集,之后数据收容器从各个agent上汇聚数据存入HDFS或HBase。

    Flume事件

    事件是Flume内部数据传输的最基本单元,由一个转载数据的字节数组(该数据组是从数据源接入点传入,并传输给传输器,也就是HDFS/HBase)和一个可选头部构成。其结构如下图所示:

                                                   大数据——数据流式处理「建议收藏」

    Flume Agent

     Flume内部有一个或者多个Agent,每一个Agent就是一共独立的守护进程(JVM),它从客户端或其他Agent接收数据,然后迅速将获取的数据传给下一个目的节点sink或者agent。其结构如下图所示,主要由source、channel、sink三部分组成。

                                                        大数据——数据流式处理「建议收藏」

     Source:

     从数据发生器接收数据,并将接收的数据以Flume的event格式传递给一个或者多个通道channal,Flume提供多种数据接收的方式,比如Avro,Thrift等;

     Channel:

     channal是一种短暂的存储容器,它将从source处接收到的event格式的数据缓存起来,直到它们被sinks消费掉,它在source和sink间起着一共桥梁的作用,channal是一个完整的事务,这一点保证了数据在收发的时候的一致性。并且它可以和任意数量的source和sink链接,支持的类型有: JDBC channel ,File System channel, Memort channel等;

     Sink:

     sink将数据存储到集中存储器比如Hbase、HDFS,它从channals消费数据(events)并将其传递给目标地,目标地可能是另一个sink,也可能HDFS,HBase。

                                         大数据——数据流式处理「建议收藏」                   

                                             

         大数据——数据流式处理「建议收藏」

 

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/142572.html原文链接:https://javaforall.net

(0)
上一篇 2022年5月23日 下午1:40
下一篇 2022年5月23日 下午2:00


相关推荐

  • js字符串转json, json转字符串

    js字符串转json, json转字符串可以将 json 字符串转换成 json 对象 JSON parse jsonstr 可以将 json 对象转换成 json 对符串 JSON stringify jsonobj

    2026年3月16日
    2
  • mysql latin1 中文_mysql 的 latin1 支持中文

    mysql latin1 中文_mysql 的 latin1 支持中文初学者往往会犯糊涂 mysql 的默认字符集 latin1 是否支持中文 初步分析表明 是的 确实支持中文 是初步的结论 只做了初步的分析 1 先来看看 latin1 参考百度百科 Latin1 是 ISO 8859 1 的别名 有些环境下写作 Latin 1 ISO 8859 1 编码是单字节编码 向下兼容 ASCII 其编码范围是 0x00 0xFF 0x0

    2026年3月19日
    2
  • GET请求方式的长度限制到底是多少?「建议收藏」

    GET请求方式的长度限制到底是多少?「建议收藏」在我的一贯认识中,一直认为get请求方式有长度限制,1024B。很抱歉在没有经过验证的情况下,一直奉为圭皋。直到项目中有一次用到get请求方式传值的时候,才发现之前一直记忆的网络知识一直都是错误的。今日,看到网络上关于get的知识总结,发现原来一直信奉的1024Get请求长度,是错误的。下面把从权威官网的解释复制过来,以做更正。1、Httpget方法提交的数据大小长度并没有限制,Http协议规范没有对URL长度进行限制。目前说的get长度有限制,是特定的浏览器及服务器

    2022年8月24日
    8
  • matplotlib绘图的核心原理讲解(超详细)

    matplotlib绘图的核心原理讲解(超详细)1 核心原理讲解 使用 matplotlib 绘图的原理 主要就是理解 figure 画布 axes 坐标系 axis 坐标轴 三者之间的关系 以 美院学生张三写生画画 为例 来说明这三者之间的关系 首先 张三想要画画 是不是需要在画板上面准备一张画布 对比到 matplotlib 中 就相当于初始化了一张 figure 画布 我们画的任何图形 都是在这张 figure 画布 上操作的

    2026年3月19日
    2
  • 防抖节流

    防抖节流故心故心故心故心小故冲啊文章目录前防抖节流总结前 data pd read csv https labfile oss aliyuncs com courses 1283 adult data csv print data head 该处使用的 url 网络请求的数据 防抖原理 事件回调函数 doSomething 在一段时间 300 毫秒 后才执行 如果在这段时间内再次调用则重新从 0 开始计算到 300 毫秒的时间 当预定的时间内没有再次调用该函数 则执行事件回调

    2026年3月20日
    1
  • 廖雪峰的 Python 教程_python基础教程廖雪pdf

    廖雪峰的 Python 教程_python基础教程廖雪pdfimportmath#一元二次方程defquadratic(a,b,c): n=b/a/2 m=abs(n*n-c/a) x1=math.sqrt(m)-n x2=-math.sqrt(m)-n returnx1,x2#一个或多个数的乘积defproduct(f,*args): result=f; forxinargs: resu…

    2025年6月23日
    4

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号