zl程序教程

您现在的位置是:首页 >  数据库

当前栏目

Hadoop 2.0.2和Hive 0.10.0单机伪集群配置

2023-04-18 14:41:50 时间

Hadoop:

1.安装JDK 1.6以上

2.下载Hadoop包

3.添加环境变量:

  1. export JAVA_HOME=/usr/lib/jvm/java-7-sun 
  2. export JRE_HOME=$JAVA_HOME/jre 
  3. export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH 
  4. export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH 
  5. export HADOOP_PREFIX=/home/nachuang/Hadoop/hadoop-2.0.2-alpha 

4.修改配置文件:

  1).core-site.xml:

  1. <configuration>   
  2. <property>   
  3. <name>fs.default.name</name>   
  4. <value>hdfs://localhost:9000</value>   
  5. </property>   
  6. <property>   
  7. <name>hadoop.tmp.dir</name>   
  8. <value>/home/nachuang/Hadoop/hadoop-2.0.2-alpha/tmp</value>   
  9. </property>   
  10. </configuration>   

  2).hdfs-site.xml:

  1. <configuration>   
  2. <property>     
  3. <name>dfs.name.dir</name>     
  4. <value>/home/nachuang/Hadoop/hadoop-2.0.2-alpha/datalog1,   
  5.                /home/nachuang/Hadoop/hadoop-2.0.2-alpha/datalog2</value>     
  6. </property>     
  7. <property>     
  8. <name>dfs.data.dir</name>     
  9. <value>/home/nachuang/Hadoop/hadoop-2.0.2-alpha/data1,   
  10.                /home/nachuang/Hadoop/hadoop-2.0.2-alpha/data2</value>   
  11. </property>     
  12. <property>     
  13. <name>dfs.replication</name>     
  14. <value>1</value>     
  15. </property>   
  16. </configuration>   

Hive:

  只需添加两个环境变量:

  1. export HADOOP_HOME=$HADOOP_PREFIX 
  2. port HIVE_HOME=/home/nachuang/hive-0.10.0-bin   

在hdfs 启动以后,启动hive 的cli 。

默认的配置使用的是derby数据库,

创建的表可以在hdfs上看到。

原文链接:http://blog.csdn.net/edwardvsnc/article/details/8551423