大数据spark、hadoop、hive、hbase面试题及解析[通俗易懂]

大数据spark、hadoop、hive、hbase面试题及解析[通俗易懂](1)spark运行流程、源码架构(2)Hbase主键设计、hbase为何这么快?主键设计:1.生成随机数、hash、散列值2.字符串反转3.字符串拼接hbase为何快:https://blog.csdn.net/sghuu/article/details/102955969(3)Hbase读写流程,数据compact流程hbase读写流程:https://blog.csdn.n…

大家好,又见面了,我是你们的朋友全栈君。

整理的答案 后面继续更新:

(1)spark运行流程、源码架构
https://blog.csdn.net/sghuu/article/details/103547937

(2)Hbase主键设计、hbase为何这么快?
主键设计:
1.生成随机数、hash、散列值
2.字符串反转
3.字符串拼接
hbase为何快:https://blog.csdn.net/sghuu/article/details/102955969

(3)Hbase读写流程,数据compact流程
hbase读写流程:
https://blog.csdn.net/sghuu/article/details/102708098
数据compact流程;
https://blog.csdn.net/sghuu/article/details/102956773

(4)Hadoop mapreduce流程
https://blog.csdn.net/sghuu/article/details/98985583

(5)Spark standalone模型、yarn架构模型(画出来架构图)

https://blog.csdn.net/sghuu/article/details/103547937

(6)Spark算子(map、flatmap、reducebykey和reduce、groupbykey和reducebykey、join、distinct)原理

(7)Spark stage的切分、task资源分配、任务调度、master计算资源分配
spark的stage的切分是根据宽依赖划分,最起码有一个ResultStage,从后往前每遇见一个宽依赖则会切分出一个ShuffleMapStage。
task的时stage的子集,根据并行度(分区数)来衡量,分区数是多少就有多少个task
spark的任务调度分为stage级别的调度和Task级别的调度

详细介绍切分流程和任务调度:

(8)Sparksql自定义函数、怎么创建dateframe

(9)Sparkstreaming项目多久一个批次数据

(10)Kafka复制机制、分区多副本机制
https://blog.csdn.net/tryll/article/details/86627696

(11)Hdfs读写流程,数据checkpoint流程
读流程:
https://blog.csdn.net/sghuu/article/details/98127600
写数据流程:
https://blog.csdn.net/sghuu/article/details/98122393
checkpoint流程:
https://blog.csdn.net/sghuu/article/details/98196539

(12)Sparkshuffle和hadoopshuffle原理、对比

(13)Hivesql怎么转化为MapReduce任务
在这里插入图片描述

(14)Spark调优
spark的四个方面调优

(15)Spark数据倾斜解决方案
spark数据倾斜的6种解决
https://blog.csdn.net/sghuu/article/details/103710145

(16)Yarn工作流程、组成架构

https://blog.csdn.net/sghuu/article/details/102959135

(17)Zookeeper首领选取、节点类型、zookeeper实现原理

(18)hbase的ha,zookeeper在其中的作用

(19)spark的内存管理机制,spark1.6前后对比分析

(21)spark rdd、dataframe、dataset区别

(22)spark里面有哪些参数可以设置,有什么用

(23)hashpartitioner与rangePartitioner的实现

(24)spark有哪几种join

(25)spark jdbc(mysql)读取并发度优化

(26)Spark join算子可以用什么替代

(27)HBase region切分后数据是怎么分的

(28)项目集群结构(spark和hadoop集群)

(29)spark streaming是怎么跟kafka交互的,具体代码怎么写的,程序执行流程是怎样的,这个过程中怎么确保数据不丢(直连和receiver方式)

(30)kafka如何保证高吞吐的,kafka零拷贝,具体怎么做的

(31)hdfs的容错机制

(32)zookeeper怎么保证原子性,怎么实现分布式锁

(33)kafka存储模型与网络模型

(34)Zookeeper脑裂问题

Scala

(1)隐式转换

(2)柯理化

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/138440.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • 数据库设计工具的使用(实用)

    数据库设计工具的使用(实用)使用数据库设计工具,以下sql语句全部可以自动生成:/*==============================================================*//*DBMSname:MySQL5.0*//*Createdon:2017/5/270:57:18

    2022年7月11日
    18
  • 【Linux 内核网络协议栈源码剖析】recvfrom 函数剖析

    【Linux 内核网络协议栈源码剖析】recvfrom 函数剖析继前篇介绍完sendto数据发送函数后,这里介绍数据接收函数recvfrom。一、应用层——recvfrom函数对于这个函数有必要分析一下,先看看这个dup例子。服务器端中调用recvfrom函数,并未指定发送端(客户端)的地址,换句话说这个函数是一个被动函数,有点类似于tcp协议中服务器listen之后阻塞,等待客户端connect。这里则是服务器端recvfrom后,等待客户端

    2022年7月23日
    10
  • NTP 时间服务器「建议收藏」

    NTP时间服务器,为客户机提供标准时间原理:NTP(NetworkTimeProtocol,网络时间协议)是用来使计算机时间同步的一种协议。它可以使计算机对其服务器或时钟源做同步化,它可以提供高精准度的时间校正1、客户端安装chrony软件与NTP服务器沟通]#yum-yinstallchrony2、修改配置文件/etc/chrony.conf指定服务端…

    2022年4月6日
    44
  • php设计模式总结-工厂模式

    php设计模式总结-工厂模式

    2022年3月12日
    31
  • python如何使用for循环_Python 中for循环的应用

    python如何使用for循环_Python 中for循环的应用1.for…in循环循环,遍历,迭代都是指把容器中的数据一个一个获取出来lst=[1,2,3,4,5]i=0whilei<len(lst): print(lst[i]) i+=1 #无法用while它的索引下标获取集合其中的值;setvar={“a”,”b”,”c”}for..in..应用而生语法:for变量in可迭代对象: code…可迭代对象(通常用到的是:容器类型数据,range对象,迭代器)2

    2022年8月12日
    9
  • java分布式事务框架_Java分布式事务,及解决方案

    java分布式事务框架_Java分布式事务,及解决方案1、什么是分布式事务分布式事务就是指事务的参与者、支持事务的服务器、资源服务器以及事务管理器分别位于不同的分布式系统的不同节点之上。以上是百度百科的解释,简单的说,就是一次大的操作由不同的小操作组成,这些小的操作分布在不同的服务器上,且属于不同的应用,分布式事务需要保证这些小操作要么全部成功,要么全部失败。本质上来说,分布式事务就是为了保证不同数据库的数据一致性。2、分布式事务的产生的原因2.1、…

    2022年5月4日
    64

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号