实验环境: 在其他两台主机做相同操作,修改成相应的主机名 在其他两台主机做相同的配置,配置域名映射 在另外两台主机做相同的操作,关闭防火墙 在另外两台主机做相同的配置,关闭selinux 在另外两台主机做相同的配置,配置yum仓库 master-bad配置: slave01-bad配置: slave02-bad相同配置,配置时间同步 只需要配置从主节点到从节点的即可 生成ssh密钥 同样操作将ssh密钥传给salve01-bad、slave02-bad 这里直接使用Xftp上传至服务器 如果是下载的是tar、gz的压缩包,需要先解压( 需要递归赋予权限,否则无法查看Hadoop的版本信息 为防止配置出错,方便恢复,配置文件修改前,将原文件复制一行,注释掉,再进行修改 格式化成功后,会看到 实验中遇到的问题及解决方法: 使用 将Hadoop的安装目录权限提高, 没有将jdk环境包上传至slave,重新上传 问题解决办法可参考-柚子皮-的博客。文章目录
Hadoop介绍
实验
主机名
RHEL版本
IP地址
Master-bad
RHEL 7.0
192.168.43.130
slave01-bad
RHEL 7.0 Min
192.168.43.129
slave02-bad
RHEL 7.4
192.168.43.131
修改主机名
[root@server ~]# hostnamectl set-hostname Master-bad [root@server ~]# bash [root@master-bad ~]#
配置主机域名映射
[root@master-bad ~]# vim /etc/hosts 192.168.43.129 slave01-bad 192.168.43.130 master-bad 192.168.43.131 slave02-bad [root@master-bad ~]#
关闭防火墙
[root@master-bad ~]# systemctl stop firewalld //关闭防火墙 [root@master-bad ~]# systemctl disable firewalld //禁止开机自启
关闭selinux
[root@master-bad ~]# vim /etc/selinux/config SELINUX=disabled
配置yum仓库
[root@master-bad yum.repos.d]# vim rhel.repo [Base] name=RHEL baseurl=file:///mnt gpgcheck=0 enabled=1 [root@master-bad yum.repos.d]# mount /dev/cdrom /mnt/ mount: /dev/sr0 写保护,将以只读方式挂载 [root@master-bad yum.repos.d]# yum clean all [root@master-bad yum.repos.d]# yum repolist 源标识 源名称 状态 Base RHEL 4,305 repolist: 4,305 [root@master-bad yum.repos.d]#
安装并配置NTP服务,用于时间同步
[root@master-bad ~]# yum -y install ntp
[root@master-bad ~]# vim /etc/ntp.conf //在配置文件中加入以下内容 server 127.127.1.0 fudge 127.127.1.0 startum 10 [root@master-bad ~]# systemctl start ntpd [root@master-bad ~]# systemctl enable ntpd
[root@slave01-bad ~]# yum -y install ntpdate
[root@slave01-bad ~]# ntpdate master-bad
配置免密登录
[root@master-bad ~]# ssh-keygen
[root@master-bad ~]# ssh-copy-id master-bad Are you sure you want to continue connecting (yes/no)? yes //yes确认 root@master-bad's password: //输入master-bad的root密码
将Hadoop、jdk环境包上传到服务器
wget
)
[root@master-bad ~]# ll /opt/Hadoop/ 总用量 8 drwxr-xr-x. 9 root root 4096 6月 1 22:58 hadoop-2.7.6 drwxr-xr-x. 8 root root 4096 6月 1 23:08 jdk1.8.0_171 [root@master-bad ~]#
tar -xf 压缩包名 解压的路径
)安装与配置jdk
[root@master-bad ~]# vim /etc/profile //配置环境变量 export JAVA_HOME=/opt/Hadoop/jdk1.8.0_171 export PATH=$PATH:$JAVA_HOME/bin [root@master-bad ~]# source /etc/profile //重读文件,使配置的环境生效 [root@master-bad ~]# java -version //验证,查看Java环境的版本 java version "1.7.0_51" OpenJDK Runtime Environment (rhel-2.4.5.5.el7-x86_64 u51-b31) OpenJDK 64-Bit Server VM (build 24.51-b03, mixed mode) [root@master-bad ~]#
安装Hadoop
[root@master-bad ~]# vim /etc/profile //配置环境变量 export HADOOP_HOME=/opt/Hadoop/hadoop-2.7.6 export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin [root@master-bad ~]# source /etc/profile //重读配置文件,是环境变量生效 [root@master-bad ~]# chmod -R 755 /opt/Hadoop/ //修改权限 [root@master-bad ~]# hadoop version //验证,查看Hadoop版本 Hadoop 2.7.6 。。。 [root@master-bad ~]#
修改Hadoop配置文件
core-site.xml
配置文件[root@master-bad ~]# cd /opt/Hadoop/hadoop-2.7.6/etc/hadoop/ [root@master-bad hadoop]# vim core-site.xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://master-bad:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/opt/Hadoop/hadoop-2.7.6/hdfs</value> </property> </configuration> [root@master-bad hadoop]#
hdfs-site.xml
配置文件[root@master-bad hadoop]# vim hdfs-site.xml <configuration> <property> <name>dfs.replication</name> <value>3</value> </property> <property> <name>dfs.namenode.secondary.http-address</name> <value>slave02-bad:9001</value> </property> </configuration> [root@master-bad hadoop]#
mapred-site.xml
配置文件[root@master-bad hadoop]# vim mapred-site.xml <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> [root@master-bad hadoop]#
yarn-site.xml
配置文件[root@master-bad hadoop]# vim yarn-site.xml <configuration> <!-- Site specific YARN configuration properties --> <property> <name>yarn.resourcemanager.hostname</name> <value>master-bad</value> </property> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration> [root@master-bad hadoop]#
slaves
配置文件[root@master-bad hadoop]# vim slaves master-bad slave01-bad slave02-bad [root@master-bad hadoop]#
hadoop-env.sh
配置文件[root@master-bad hadoop]# vim hadoop-env.sh #export JAVA_HOME=${JAVA_HOME} export JAVA_HOME=/opt/Hadoop/jdk1.8.0_171
将修改好的环境复制到其他节点
[root@master-bad hadoop]# scp -r /opt/Hadoop/jdk1.8.0_171/ slave01-bad:/opt/Hadoop/ [root@master-bad hadoop]# scp -r /opt/Hadoop/jdk1.8.0_171/ slave02-bad:/opt/Hadoop/
[root@master-bad hadoop]# scp -r /opt/Hadoop/hadoop-2.7.6/ slave01-bad:/opt/Hadoop/ [root@master-bad hadoop]# scp -r /opt/Hadoop/hadoop-2.7.6/ slave02-bad:/opt/Hadoop/
[root@master-bad hadoop]# scp /etc/profile slave01-bad:/etc/ [root@master-bad hadoop]# scp /etc/profile slave02-bad:/etc/
格式化Hadoop
[root@master-bad hadoop]# hdfs namenode -format [root@master-bad hadoop]# start-all.sh
successfully formatted
验证启动情况
[root@master-bad hadoop]# jps 46340 NodeManager 46184 ResourceManager 45914 DataNode 48461 Jps 45726 NameNode [root@master-bad hadoop]#
[root@slave01-bad ~]# jps 2881 DataNode 2979 Jps 2942 NodeManager [root@slave01-bad ~]#
[root@slave02-bad ~]# jps 3796 NodeManager 3653 DataNode 3722 SecondaryNameNode 4222 Jps [root@slave02-bad ~]#
注意事项
https://localhost:9870
或https://localhost:50070
验证是否成功启动
hadoop namenode -format -force
强制格式化
root@slave01-bad's password: slave01-bad: Permission denied, please try again
chmod -R 777 /opt/Hadoop/
/opt/Hadoop/jdk1.8.0_171/bin/jps: 没有那个文件或目录
[root@master-bad hadoop]# scp -r /opt/Hadoop/jdk1.8.0_171/ slave02-bad:/opt/Hadoop/
以上内容均属原创,如有不详或错误,敬请指出。
本网页所有视频内容由 imoviebox边看边下-网页视频下载, iurlBox网页地址收藏管理器 下载并得到。
ImovieBox网页视频下载器 下载地址: ImovieBox网页视频下载器-最新版本下载
本文章由: imapbox邮箱云存储,邮箱网盘,ImageBox 图片批量下载器,网页图片批量下载专家,网页图片批量下载器,获取到文章图片,imoviebox网页视频批量下载器,下载视频内容,为您提供.
阅读和此文章类似的: 全球云计算