浅谈Linux 安装Hadoop和Hbase

mirrors.aliyun.com/apache/hadoop/common/hadoop-2.7.7/hadoop-2.7.7.tar.gz archive.apache.org/dist/hbase/1.3.5/hbase-1.3.5-bin.tar.gz tarzxvfhadoop-2.7.7.tar.gz tarzxvfhbase-1.3.5-bin.tar.gz mvhadoop-2.7.7hbase-1.3.5/apps/ cd/apps ln-shado

mirrors.aliyun.com/apache/hadoop/common/hadoop-2.7.7/hadoop-2.7.7.tar.gz 

 

archive.apache.org/dist/hbase/1.3.5/hbase-1.3.5-bin.tar.gz 

tar zxvf hadoop-2.7.7.tar.gz 

tar zxvf hbase-1.3.5-bin.tar.gz 

mv hadoop-2.7.7  hbase-1.3.5   /apps/ 

cd /apps 

ln -s hadoop-2.7.7 hadoop 

ln -s hbase-1.3.5 hbase 

cd –  

配置hadoop

1.配置namenod

vim /apps/hadoop/etc/hadoop/core-site.xml 

添加内容

<configuration> 

 <property> 

    <!– 指定namenode通信地址 –> 

        <name>fs.defaultFS</name> 

        <value>hdfs://hdfs1:9000</value> 

    </property> 

    <!– 指定hadoop运行时产生文件的存储路径 –> 

    <property> 

        <name>hadoop.tmp.dir</name> 

        <value>/data/hdfs/hadoop/tmp</value> 

    </property> 

</configuration> 

2.配置namenode和datanode

vim /apps/hadoop/etc/hadoop/hdfs-site.xml 

在文件后面添加内容

<configuration> 

  <!– 设置namenode的http通讯地址 –> 

    <property> 

        <name>dfs.namenode.http-address</name> 

        <value>hdfs1:50070</value> 

    </property> 

​ 

    <!– 设置secondarynamenode的http通讯地址 –> 

    <property> 

        <name>dfs.namenode.secondary.http-address</name> 

        <value>hdfs2:50070</value> 

    </property> 

​ 

    <!– 设置namenode存放的路径 –> 

    <property> 

        <name>dfs.namenode.name.dir</name> 

        <value>/data/hdfs/hadoop/name</value> 

    </property> 

​ 

    <!– 设置hdfs副本数量 –> 

    <property> 

        <name>dfs.replication</name> 

        <value>2</value> 

    </property> 

    <!– 设置datanode存放的路径 –> 

    <property> 

        <name>dfs.datanode.data.dir</name> 

        <value>/data/hdfs/hadoop/datanode</value> 

    </property> 

​ 

    <property> 

        <name>dfs.permissions</name> 

        <value>false</value> 

    </property> 

</configuration> 

3.配置环境变量

vim /apps/hadoop/etc/hadoop/hadoo-env.sh 

修改JAVA_HOME

export JAVA_HOME=/apps/jdk 

也可以根据具体的需求设置堆栈之类的参数

4.设置主节点

vim /apps/hadoop/etc/hadoop/master 

添加主节点,一般使用主机名

hdfs1 

5.设置从节点

vim /apps/hadoop/etc/hadoop/slave 

添加从节点,一般使用主机名

关于作者: dawei

【声明】:石家庄站长网内容转载自互联网,其相关言论仅代表作者个人观点绝非权威,不代表本站立场。如您发现内容存在版权问题,请提交相关链接至邮箱:bqsm@foxmail.com,我们将及时予以处理。

为您推荐