Hadoop配置注意事项及命令使用经验总结
本节和大家一起学习一下Hadoop配置过程中应该注意的一些问题,同时和大家分享一下使用Hadoop命令过程中的一些感受,欢迎大家一起来学习,以便在以后的学习过程中避免犯错误,希望通过本节的介绍大家对Hadoop配置和Hadoop命令有更加深刻的认识。
Hadoop配置注意事项:
Master和Slave上的几个conf配置文件不需要全部同步,如果确定都是通过Master去启动和关闭,那么Slave机器上的配置不需要去维护。但如果希望在任意一台机器都可以启动和关闭Hadoop,那么就需要全部保持一致了。
Master和Slave机器上的/etc/hosts中必须把集群中机器都配置上去,就算在各个配置文件中使用的是IP。这个吃过不少苦头,原来以为如果配成IP就不需要去配置Host,结果发现在执行Reduce的时候总是卡住,在拷贝的时候就无法继续下去,不断重试。另外如果集群中如果有两台机器的机器名如果重复也会出现问题。
如果在新增了节点或者删除节点的时候出现了问题,首先就去删除Slave的hadoop.tmp.dir,然后重新启动试试看,如果还是不行那就干脆把Master的hadoop.tmp.dir删除(意味着dfs上的数据也会丢失),如果删除了Master的hadoop.tmp.dir,那么就需要重新namenode–format。Map任务个数以及Reduce任务个数配置。前面分布式文件系统设计提到一个文件被放入到分布式文件系统中,会被分割成多个block放置到每一个的DataNode上,默认dfs.block.size应该是64M,也就是说
如果你放置到HDFS上的数据小于64,那么将只有一个Block,此时会被放置到某一个DataNode中,这个可以通过使用命令:hadoopdfsadmin–report就可以看到各个节点存储的情况。也可以直接去某一个DataNode查看目录:hadoop.tmp.dir/dfs/data/current就可以看到那些block了。Block的数量将会直接影响到Map的个数。当然可以通过配置来设定Map和Reduce的任务个数。Map的个数通常默认和HDFS需要处理的blocks相同。也可以通过Hadoop配置Map的数量或者配置minimumsplitsize来设定,实际的个数为:max(min(block_size,data/#maps),min_split_size)。Reduce可以通过这个公式计算:0.95*num_nodes*mapred.tasktracker.tasks.maximum。
总的来说出了问题或者启动的时候最好去看看日志,这样心里有底。
Hadoop中的命令(Command)总结:
这部分内容其实可以通过命令的Help以及介绍了解,我主要侧重于介绍一下我用的比较多的几个命令。Hadoopdfs这个命令后面加参数就是对于HDFS的操作,和Linux操作系统的命令很类似,例如:
Hadoopdfs–ls就是查看/usr/root目录下的内容,默认如果不填路径这就是当前用户路径;
Hadoopdfs–rmrxxx就是删除目录,还有很多命令看看就很容易上手;
Hadoopdfsadmin–report这个命令可以全局的查看DataNode的情况;
Hadoopjob后面增加参数是对于当前运行的Job的操作,例如list,kill等;
Hadoopbalancer就是前面提到的均衡磁盘负载的命令。
其他就不详细介绍了。本节关于Hadoop配置及命令方面的内容介绍完毕。
【编辑推荐】
相关文章
- 为什么存储过程比sql语句效率高?
- GeoLayout: Geometry Driven Room Layout Estimation Based on Depth Maps of Planes
- Azure DevOps 的架构窥探
- 神奇的DEBUG:因为异常导致MongoDB容器无法启动
- C++进阶(位图+布隆过滤器的概念和实现+海量数据处理)
- 大数据 - DWS层 业务实现
- 大数据 - DWD&DIM 行为数据
- 大数据 - ADS 数据可视化实现
- 2 Java内存层面的对象认识
- 线性方程组的直接解法——Gauss消去法
- 从Spring中学到的【2】--容器类
- CH9434-MCU代码移植,芯片使用详细说明(附Linux开发资料链接)
- Apache Kafka 移除 ZK Proposals
- 为什么NoSQL数据库这么受欢迎?
- 一个理想的数据湖应具备哪些功能?
- Django之SQL注入漏洞复现(CVE-2021-35042)
- Redis数据结构与对象
- C++进阶(哈希)
- 历时9个月重构iNeuOS工业互联网操作系统,打造工业领域的“Office”
- RabbitMQ、RocketMQ、Kafka延迟队列实现