本文是用过Vmware搭建的三台linux虚拟机。
Vmware安装包自取
Mac:链接:https://pan.baidu.com/s/1unYcc_hc9SA5O5-QvZFe-A 密码:h20j
Windows:链接:https://pan.baidu.com/s/1Z5y1DsnT-CmWcGHADd6WwQ 密码:5v0w
#关闭防火墙
systemctl stop firewalld
#开机禁止启动
systemctl disable firewalld
sudo vim /etc/sysconfig/selinux
#添加一行这个配置即可
SELINUX=disabled
vi /etc/hostname
# 安装自己的想法分别添加配置
node01.xx.com
node02.xx.com
node03.xx.com
添加主机名ip映射
vi /etc/hosts
ip1 node01.xx.com node01
ip2 node02.xx.com node02
ip3 node03.xx.com node03
#1.安装 ntpdate
yum -y install ntpdate
#2.设置阿里云服务器
ntpdate ntp4.aliyun.com
#3.设置定时任务
crontab -e
*/1 * * * * /usr/sbin/ntpdate ntp4.aliyun.com;
#添加用户
useradd hadoop
#设置密码 根据提示 输入密码即可
passwd hadoop
#添加权限
visudo
#增加如下配置
hadoop ALL=(ALL) ALL
mkdir -p /xx/soft # 软件压缩包存放目录
mkdir -p /xx/install # 软件解压后存放目录
chown -R hadoop:hadoop /xx # 将文件夹权限更改为hadoop用户
#创建完haddoop用户后记住,以后的操作都使用hadoop用户即可
#切换hadoop用户
su hadoop
未来的场景中,三台linux服务器之间要经过各种交互。如果相互访问需要密码,会存在很多麻烦。
以下的操作都是hadoop用户
#1.三台机器都声称 公钥和私钥
ssh-keygen -t rsa
#2.三台机器执行命令拷贝公钥到node01服务器
ssh-copy-id node01
#3.降node01的公钥copy到其他服务器上
#注意.ssh是隐藏文件 $PWD 是当前文件目录,意味copy到其他服务器上的相同目录下
cd /home/hadoop/.ssh/
scp authorized_keys node02:$PWD
scp authorized_keys node03:$PWD
#4.验证(看是否还需要密码,不需要即配置成功)
ssh node02
ssh node03
#5.重启服务器
sudo shutdown -r now
sudo reboot -h now
1.上传本地包到三台liunx虚拟机的安装目录
#分别上传安装包
scp -r /path/jdk1.8.0_141 hadoop@localhost:/xx/soft
#安装
tar -xzvf jdk-8u141-linux-x64.tar.gz -C /zy/install/
#配置环境
sudo vim /ect/profile
#2.添加环境变量
export JAVA_HOME=/zy/install/jdk1.8.0_141
export PATH=$PATH:$JAVA_HOME/bin
#3.加载配置
source /etc/profile
准备好后建议打个快照,方便后边环境搭建失败后恢复,不至于从头返工
如果openssl为fasle,那么所有机器在线安装openssl即可,执行以下命令,虚拟机联网之后就可以在线进行安装了
sudo yum -y install openssl-devel
注意以下的配置都是在node01节点操作 切记
vim hadoop-env.sh
#添加jdk配置
export JAVA_HOME=/zy/install/jdk1.8.0_141
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://node01:8020</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<!-- 注意配置到自己的目录上,不要配置错误 -->
<value>/xx/install/hadoop-3.1.4/hadoopDatas/tempDatas</value>
</property>
<!-- 缓冲区大小,实际工作中根据服务器性能动态调整;默认值4096 -->
<property>
<name>io.file.buffer.size</name>
<value>4096</value>
</property>
<!-- 开启hdfs的垃圾桶机制,删除掉的数据可以从垃圾桶中回收,单位分钟;默认值0 -->
<property>
<name>fs.trash.interval</name>
<value>10080</value>
</property>
</configuration>
<configuration>
<!-- NameNode存储元数据信息的路径,实际工作中,一般先确定磁盘的挂载目录,然后多个目录用,进行分割 -->
<!-- 集群动态上下线
<property>
<name>dfs.hosts</name>
<value>/xx/install/hadoop-3.1.4/etc/hadoop/accept_host</value>
</property>
<property>
<name>dfs.hosts.exclude</name>
<value>/xx/install/hadoop-3.1.4/etc/hadoop/deny_host</value>
</property>
-->
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>node01:9868</value>
</property>
<property>
<name>dfs.namenode.http-address</name>
<value>node01:9870</value>
</property>
<!-- namenode保存fsimage的路径 -->
<property>
<name>dfs.namenode.name.dir</name>
<value>file:///xx/install/hadoop-3.1.4/hadoopDatas/namenodeDatas</value>
</property>
<!-- 定义dataNode数据存储的节点位置,实际工作中,一般先确定磁盘的挂载目录,然后多个目录用,进行分割 -->
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///xx/install/hadoop-3.1.4/hadoopDatas/datanodeDatas</value>
</property>
<!-- namenode保存editslog的目录 -->
<property>
<name>dfs.namenode.edits.dir</name>
<value>file:///xx/install/hadoop-3.1.4/hadoopDatas/dfs/nn/edits</value>
</property>
<!-- secondarynamenode保存待合并的fsimage -->
<property>
<name>dfs.namenode.checkpoint.dir</name>
<value>file:///xx/install/hadoop-3.1.4/hadoopDatas/dfs/snn/name</value>
</property>
<!-- secondarynamenode保存待合并的editslog -->
<property>
<name>dfs.namenode.checkpoint.edits.dir</name>
<value>file:///xx/install/hadoop-3.1.4/hadoopDatas/dfs/nn/snn/edits</value>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.permissions.enabled</name>
<value>false</value>
</property>
<property>
<name>dfs.blocksize</name>
<value>134217728</value>
</property>
</configuration>
configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.job.ubertask.enable</name>
<value>true</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>node01:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>node01:19888</value>
</property>
<property>
<name>yarn.app.mapreduce.am.env</name>
<value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
</property>
<property>
<name>mapreduce.map.env</name>
<value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
</property>
<property>
<name>mapreduce.reduce.env</name>
<value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
</property>
</configuration>
<configuration>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>node01</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<!-- 如果vmem、pmem资源不够,会报错,此处将资源监察置为false -->
<property>
<name>yarn.nodemanager.vmem-check-enabled</name>
<value>false</value>
</property>
<property>
<name>yarn.nodemanager.pmem-check-enabled</name>
<value>false</value>
</property>
</configuration>
vim workers
# 替换为如下
node01
node02
node03
node01上执行
mkdir -p /xx/install/hadoop-3.1.4/hadoopDatas/tempDatas
mkdir -p /xx/install/hadoop-3.1.4/hadoopDatas/namenodeDatas
mkdir -p /xx/install/hadoop-3.1.4/hadoopDatas/datanodeDatas
mkdir -p /xx/install/hadoop-3.1.4/hadoopDatas/dfs/nn/edits
mkdir -p /xx/install/hadoop-3.1.4/hadoopDatas/dfs/snn/name
mkdir -p /xx/install/hadoop-3.1.4/hadoopDatas/dfs/nn/snn/edits
scp -r hadoop-3.1.4/ node02:$PWD
scp -r hadoop-3.1.4/ node03:$PWD
#三台机器都要进行配置hadoop的环境变量
vim /etc/profile
#添加如下配置,生效即可
export HADOOP_HOME=/xx/install/hadoop-3.1.4
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source /etc/profile
#验证
hadoop
#两个命令都可以
hdfs namenode -format
hadoop namenode –format
出现标注所示,即为成功。
start
start-dfs.sh
start-yarn.sh
mapred --daemon start historyserver
stop
stop-dfs.sh
stop-yarn.sh
mapred --daemon stop historyserver
# 根据集群职责的划分分别在不同的机器上启动对应的进程即可
hdfs --daemon start namenode
hdfs --daemon start secondarynamenode
hdfs --daemon start datanode
yarn --daemon start resourcemanager
yarn --daemon start nodemanager
cd /home/hadoop/bin/
vim hadoop.sh
#!/bin/bash
case $1 in
"start" ){
source /etc/profile;
/kkb/install/hadoop-3.1.4/sbin/start-dfs.sh
/kkb/install/hadoop-3.1.4/sbin/start-yarn.sh
#/kkb/install/hadoop-3.1.4/sbin/mr-jobhistory-daemon.sh start historyserver
/kkb/install/hadoop-3.1.4/bin/mapred --daemon start historyserver
};;
"stop"){
/kkb/install/hadoop-3.1.4/sbin/stop-dfs.sh
/kkb/install/hadoop-3.1.4/sbin/stop-yarn.sh
#/kkb/install/hadoop-3.1.4/sbin/mr-jobhistory-daemon.sh stop historyserver
/kkb/install/hadoop-3.1.4/bin/mapred --daemon stop historyserver
};;
esac
修改脚本权限
chmod 777 hadoop.sh
#START
./hadoop.sh start
#STOP
./hadoop.sh stop
###### 1. 访问web ui界面
- hdfs集群访问地址
http://ip:9870/
- yarn集群访问地址
http://ip:8088
- jobhistory访问地址:
http://ip19888
vim xcall
#!/bin/bash
params=$@
for (( i=1 ; i <= 3 ; i = $i + 1 )) ; do
echo ============= node0$i $params =============
ssh node0$i "source /etc/profile;$params"
done
授权
chmod 777 /home/hadoop/bin/xcall
# 执行
xcall jps
hadoop jar /zy/install/hadoop-3.1.4/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.4.jar pi 5 5
提醒:如果要关闭电脑时,清一定要按照以下顺序操作,否则集群可能会出问题
最近在和团队规划OKR目标的时候,我们讨论了很多问题,我先抛砖引玉,列举了一些...
今天给大家分享四个在实际开发中,比较实用的SQL Server脚本函数,希望对大家能...
一、导读 本文主要介绍Redhat7.6系统安装oracle 12201版本RAC的一些坑以及避坑方...
Eval 计算一个表达式的值并返回结果。 语法:[result = ]eval_r(expression_r) e...
如果你想对使用手机,平板电脑和辅助技术的用户隐藏某些内容,而只对键盘用户显...
Afrikaans:af Albanian:sq Basque:eu Belarusian:be Bulgarian:bg Catalan:ca Ch...
一. RabbitMQ 简介 MQ全称为Message Queue, 消息队列(MQ)是一种应用程序对应用...
本文分享自华为云社区《 架构可视化支撑系统演进探索 》原文作者无名小溪。 随着...
ajax传送json格式数据,关键是指定contentType,data要是json格式 如果是restful...
Linux 发行版的爱好者们又有全新的 Linux 可以体验了,日前一款名为 TeLOS 的 Li...