hadoop常见问题总结1
解决办法:
buid本地库存后,应该把build目录删除,否则启动脚本会把目录重定向到build目录中,导致web管理页面打不开,启动脚本中,如果有build目录,就将路径转到build下.
问题2、http://localhost:50070
Unable to connect
如下图所示:
解决办法:首次运行,需要对namenode进行格式化:bin/hadoop namenode -format
注意:上面的命令应该是cd 到hadoop文件夹下
解决问题以后出现如下页面:
问题3:hadoop在子节点上没有datanode进程
解决办法:
1.先停止Hadoop,bin/stop-all.sh
2.把hadoop/tmp下所有文件删除
3.重新格式化DFS bin/hadoop namenode -format
4.再重启bin/start-all.sh
5.查看各节点jps,就有DataNode和TaskTracker了
问题4:
Exception in thread "main" org.apache.hadoop.mapreduce.lib.input.InvalidInputException: Input path does not exist: hdfs://localhost:9000/user/wu/in
解决方法:
hadoop处理的文件都是在hdfs中,所以必须把要处理的文件复制到hadoop 某个文件夹中。
下面举例,在in中新建文件夹,把提前做好的wordcount文件复制到hdfs中,最后运行程序
$mkdir input $cd input $echo "hello world" test1.txt $echo "hello hadoop" test2.txt $cd .. $bin/hadoop dfs -put input in $bin/hadoop jar build/hadoop-0.20.2-examples.jar wordcount in out $bin/hadoop dfs -cat out/*
问题5:
Exception in thread "main" org.apache.hadoop.mapred.FileAlreadyExistsException: Output directory out already exists
删除Output文件夹即可解决
hadoop集群常见问题解决 1:namenode启动 datanode未启动 /hadoop/tmp/dfs/name/current VERSION 查看截取id 与 data/current VERSION集群ID 保持一致 如果一致还不可以 删除所有主从节点的 current 目录 重新 format 生成
Hadoop 集群的搭建与配置 你好看官,里面请!今天笔者讲的是Hadoop 集群的搭建与配置。不懂或者觉得我写的有问题可以在评论区留言,我看到会及时回复。 注意:本文仅用于学习参考,不可用于商业用途,如需转载请跟我联系。
相关文章
- mac mysql管理工具_hadoop平台管理工具
- 大数据概况及Hadoop生态系统总结
- Hadoop Spark太重,esProc SPL很轻
- 开源项目丨一文详解一站式大数据平台运维管家 ChengYing 如何部署 Hadoop 集群
- 《快学BigData》--Hadoop总结(A)(34)
- Hadoop
- EasyMR 安全架构揭秘:如何管理 Hadoop 数据安全
- hadoop安装
- hadoop I/O中的压缩详解程序员
- Hadoop 学习总结之一:HDFS简介详解大数据
- hadoop面试总结详解大数据
- Hadoop 2.0中单点故障解决方案总结详解大数据
- Hadoop hdfs完全分布式搭建教程详解大数据
- 8个值得关注的SQL-on-Hadoop框架详解大数据
- hadoop的HDFS新用户指南详解大数据
- hadoop 知识点总结详解大数据
- Redis与Hadoop:让数据变得更加简单(redis与hadoop)
- Hadoop入门扫盲:hadoop发行版介绍与选择
- Linux搭建Hadoop: 快速搭建大数据科学实验室(linux搭建hadoop)
- Linux下创建Hadoop用户指南(linux创建hadoop用户)
- 利用neo4j和Hadoop构建知识图谱(neo4j hadoop)
- hadoop的hdfs文件操作实现上传文件到hdfs