泰迪云课堂大数据常见面试题举例

泰迪云课堂大数据常见面试题举例不少同学在面试大数据岗位时会被问到常见的面试的知识点 有时候同学们可以快速应对 有的同学则会紧张不知如何下手 泰迪智能科技整理相关内容分享给到大家

欢迎大家来到IT世界,在知识的湖畔探索吧!

不少同学在面试大数据岗位时会被问到常见的面试的知识点,有时候同学们可以快速应对,有的同学则会紧张不知如何下手。泰迪智能科技整理相关内容分享给到大家。

一、如何杀死一个job

二、删除hdfs 上的/tmp/xxx目录

三、加入一个新的存储节点和删除一个计算节点,需要刷新集群状态命令,怎么操作HDFS增加节点

方式1:静态添加datanode,停止namenode方式

1.停止namenode

2.修改slaves文件,并更新到各个节点

3.启动namenode

4.执行Hadoop balance命令。(此项为balance集群使用,如果只是添加节点,则此步骤不需要)

方式2:动态添加datanode,不停namenode方式

1.修改slaves文件,添加需要增加的节点host或者ip,并将其更新到各个节点

2.在datanode中启动执行启动datanode命令。命令:sh hadoop-daemon.sh start datanode

3.可以通过web界面查看节点添加情况。或使用命令:sh hadoop dfsadmin -report

4.执行hadoop balance命令。(此项为balance集群使用,如果只是添加节点,则此步骤不需要)

针对第4点,start-balancer.sh可以执行-threshold参数。

四、简述一下hdfs的数据压缩算法,工作中用的是哪种算法,为什么?

1.在HDFS之上将数据压缩好后,再存储到HDFS

2.在HDFS内部支持数据压缩,这里又可以分为几种方法:

2.1 压缩工作在DataNode上完成,这里又分两种方法:

2.1.1 数据接收完后,再压缩

这个方法对HDFS的改动最小,但效果最低,只需要在block文件close后,调用压缩工具,将block文件压缩一下,然后再打开block文件时解压一下即可,几行代码就可以搞定

2.1.2 边接收数据边压缩,使用第三方提供的压缩库

效率和复杂度折中方法,Hook住系统的write和read操作,在数据写入磁盘之前,先压缩一下,但write和read对外的接口行为不变,比如:原始大小为100KB的数据,压缩后大小为10KB,当写入100KB后,仍对调用者返回100KB,而不是10KB

2.2 压缩工作交给DFSClient做,DataNode只接收和存储

想要面试的同学可以提前了解并做准备,具体详细的学习内容可到泰迪云课堂了解学习更多

泰迪云课堂大数据常见面试题举例

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://itzsg.com/81329.html

(0)

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们YX

mu99908888

在线咨询: 微信交谈

邮件:itzsgw@126.com

工作时间:时刻准备着!

关注微信