hadoop 3.1.2 单机模式安装配置

现在搞大数据记录一下,方便查阅。

1.安装配置jdk和下载hadoop略。

hadoop 下载地址:http://mirror.bit.edu.cn/apache/hadoop/common/ 使用了较新且保守的3.1.2版本

2.配置修改

环境变量修改

export HADOOP_HOME=/soft/hadoop
export PATH=$PATH:$HADOOP_HOME/bin

配置etc/hadoop/hadoop-env.sh

export JAVA_HOME=/soft/java
export HADOOP_HOME=/soft/hadoop

配置etc/hadoop/core-site.xml

<configuration>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>file:///develop/data/hadoop</value>
        <description>Abase for other temporary directories.</description>
    </property>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://192.168.0.104:8888</value>
    </property>
</configuration>

配置etc/hadoop/hdfs-site.xml

<configuration>
        <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:///develop/data/hadoop/dfs/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:///develop/data/hadoop/dfs/data</value>
    </property>
    <property>
    <name>dfs.datanode.du.reserved</name>
    <value>1073741824</value>
    <description>Reserved space in bytes per volume..</description>
</property>
</configuration>

3.配置免密码SSH登录

ssh-keygen -t rsa
cat ~/ssh/id_rsa.pub>>~/ssh/authorized_keys
#ssh localhost 测试是否成功 

4.启动测试

#格式化
hdfs namenode -format
#启动hdfs
./sbin/start-dfs.sh
#停止hdfs
./sbin/stop-dfs.sh
#验证是否成功
http://localhost:9870/

至此,hadoop的单机模式基本安装结束。

简单的验证hadoop命令:

hadoop fs -mkdir /test

在浏览器中应该可以看到新建的目录了。

注意:

1.网上的教程很多是2.x老版本,3.1.0版本后,hdfs的web 50070端口 -> 9870端口了 。

2.如果webHDFS出错,提示"Failed to retrieve data from /webhdfs/v1/?op=LISTSTATUS:Server Error“,也无法透过Web界面上传文件,一般是JDK版本过高引起的,目前hadoop还只支持JDK8版本。如果是JDK9以上版本,可以编辑hadoop-env.sh

export HADOOP_OPTS="--add-modules java.activation"

3.上传文件/创建目录报错 Permission Denied,修改hdfs-site.xml,设定dfs.permissions=false。按照本文的最新配置就不会遇到这个问题。