Ubuntu 20.04下搭建单机伪分布式Hadoop

得意时要看淡,失意时要看开。不论得意失意,切莫大意;不论成功失败,切莫止步。志得意满时,需要的是淡然,给自己留一条退路;失意落魄时,需要的是泰然,给自己觅一条出路Ubuntu 20.04下搭建单机伪分布式Hadoop,希望对大家有帮助,欢迎收藏,转发!站点地址:www.bmabk.com,来源:原文

JDK环境配置

Hadoop需要JDK环境安装并配置:

https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html官网下载Linux的版本如jdk-8u231-linux-x64.tar.gz

新建Java文件夹并解压JDK:tar -zxvf jdk-8u231-linux-x64.tar.gz
在这里插入图片描述

配置环境变量:

cd /etc
sudo vi profile

在文件末尾增加以下内容(具体路径依据环境而定):

export JAVA_HOME=/Java/jdk1.8.0_11
export JRE_HOME=/Java/jdk1.8.0_11/jre
export PATH=${JAVA_HOME}/bin:$PATH

在这里插入图片描述

保存退出,在终端界面使用命令: source /etc/profile使配置文件生效。输入java -version查看是否配置成功
在这里插入图片描述

也可以选择安装openjdk:

#安装命令
sudo apt-get install openjdk-8-jre openjdk-8-jdk

#卸载命令
sudo apt-get remove openjdk-8-jdk
sudo apt-get remove openjdk-8-jre-headless 

下载并配置Hadoop

新建Hadoop文件夹,解压文件tar -zxvf hadoop-2.10.1.tar.gz
在这里插入图片描述
在这里插入图片描述
hadoop需要ssh免密登陆等功能,因此先安装ssh。

 sudo apt-get install ssh

解压后修改hadoop-env.sh配置文件在这里插入图片描述修改JAVA_HOME为本机的JDK路径。在这里插入图片描述

配置Hadoop的环境变量:在/etc/profile追加Hadoop的环境变量。
在这里插入图片描述

修改core-site.xml配置文件
在这里插入图片描述


<configuration>
	<property>
        	<name>fs.defaultFS</name>
        	<value>hdfs://localhost:9000</value>
   	</property>
   	<property>
        	<name>hadoop.tmp.dir</name>
        	<value>/home/master/Hadoop/hadoop-2.10.1/etc/tmp</value>
   	</property>
   	
</configuration>

注意一定要设置hadoop.tem.dir不然下次启动会找不到namenode

修改hdfs-site.xml配置文件
在这里插入图片描述

<configuration>
	<property>
		<name>dfs.replication</name>
		<value>1</value>
	</property>
</configuration>

设置免密登陆

输入ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa出现下面内容:
在这里插入图片描述
再输入cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
接着输入chmod 0600 ~/.ssh/authorized_keys
在这里插入图片描述
检验免密登录是否成功:
使用命令:ssh localhost输入yes,出现下面情况就说明ok了。在这里插入图片描述

验证Hadoop安装

格式化文件系统,只能格式化一次。hdfs namenode -format
在这里插入图片描述
在这里插入图片描述

启动hadoop进程start-dfs.shstart-all.sh结果却出现:
在这里插入图片描述
出错的原因是脚本命令实在hadoop文件夹下的sbin目录而不是bin目录
在这里插入图片描述
修改/etc/profile的最后一个PATH的${HADOOP_HOME}/sbin将bin改为sbin即可。

修改后成功启动hadoop集群:
在这里插入图片描述
输入jps查看hadoop进程:
在这里插入图片描述

注意要在namenode上启动集群

通过web访问hadoop
主机输入:[ip:50070]访问NameNode
在这里插入图片描述
主机输入:[ip:50090]访问DataNode

在这里插入图片描述

常见命令:
stop-all.shstop-dfs.sh停止所有进程。
start-all.shstart-dfs.sh启动所有进程。
jps查看所有进程。

上面的hadoop环境搭建式伪分布式的,一台虚拟机既做主节点又作从节点。搭建完整集群参考Linux公社。

更多资讯访问Linux公社Ubuntu论坛

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/156299.html

(0)
飞熊的头像飞熊bm

相关推荐

发表回复

登录后才能评论
极客之音——专业性很强的中文编程技术网站,欢迎收藏到浏览器,订阅我们!