欢迎关注Hadoop、Spark、Flink、Hive、Hbase、Flume等大数据资料分享微信公共账号:iteblog_hadoop
  1. 文章总数:961
  2. 浏览总数:11,461,191
  3. 评论:3870
  4. 分类目录:103 个
  5. 注册用户数:5832
  6. 最后更新:2018年10月17日
过往记忆博客公众号iteblog_hadoop
欢迎关注微信公众号:
iteblog_hadoop
大数据技术博客公众号bigdata_ai
大数据猿:
bigdata_ai

Hadoop面试题系列(4/11)

1.文件大小默认为64M,改为128M有啥影响?

2.RPC的原理?

3.NameNode与SecondaryNameNode的区别与联系?

4.介绍MadpReduce整个过程,比如把WordCount的例子的细节将清楚(重点讲解Shuffle)?

5.MapReduce出现单点负载多大,怎么负载平衡?

6.MapReduce怎么实现Top10?

7.hadoop底层存储设计

8.zookeeper有什么优点,用在什么场合

9.Hbase中的metastore用来做什么的?

10.HBase在进行模型设计时重点在什么地方?一张表中国定义多少个Column Family最合适?为什么?

11.如何提高HBase客户端的读写性能?请举例说明。

12.在hadoop开发过程中使用过哪些算法?其应用场景是什么?

13.MapReduce程序如何发布?如果MapReduce中涉及到了第三方的jar 包,该如何处理?

14.在实际工作中使用过哪些集群的运维工具,请分别阐述其作用。

本博客文章除特别声明,全部都是原创!
转载本文请加上:转载自过往记忆(https://www.iteblog.com/)
本文链接: 【Hadoop面试题系列(4/11)】(https://www.iteblog.com/archives/1759.html)
喜欢 (2)
分享 (0)
发表我的评论
取消评论

表情
本博客评论系统带有自动识别垃圾评论功能,请写一些有意义的评论,谢谢!