Hadoop伪分布式搭建(hadoop2.x通用)
Hadoop伪分布式搭建
先说下我的环境 centos7.6(64位) 安装包准备: jdk-8u231-linux-x64.tar.gz hadoop-2.6.5.tar.gz
如果读者使用的是 ubuntu 或者其他 linux 版本,思路和本文一样,只不过命令略有出入。
1. 先关闭防火墙(建议)
执行 systemctl stop firewalld.service
# 查看是否防火墙是否关闭
[root@lft soft]# systemctl status firewalld
● firewalld.service - firewalld - dynamic firewall daemon
Loaded: loaded (/usr/lib/systemd/system/firewalld.service; disabled; vendor preset: enabled)
Active: inactive (dead)
Docs: man:firewalld(1)
2. 配置免密钥
ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
3. 解压安装jdk和hadoop并配置环境变量
(1)解压jdk并配置环境变量
tar -xf jdk-8u231-linux-x64.tar.gz
[root@lft jdk1.8.0_231]# pwd
/root/soft/jdk1.8.0_231
[root@lft jdk1.8.0_231]# vim /etc/profile
# 在文件末尾追加
export JAVA_HOME=/root/soft/jdk1.8.0_231
export CLASSPATH=$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:.
PATH=$PATH:$JAVA_HOME
# 使配置生效
[root@lft jdk1.8.0_231]# source /etc/profile
# 查看成功没有
[root@lft jdk1.8.0_231]# java -version
openjdk version "1.8.0_262"
OpenJDK Runtime Environment (build 1.8.0_262-b10)
OpenJDK 64-Bit Server VM (build 25.262-b10, mixed mode)
(2)解压hadoop并配置环境变量
tar -xf hadoop-2.6.5.tar.gz
export HADOOP_HOME=/root/soft/hadoop-2.6.5
PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
(3)二次配置 JAVA_HOME
环境变量
把../xx/hadoop-2.6.5/etc/hadoop/
下面的这三个文件里的 JAVA_HOME 的值改成刚刚配置的:export JAVA_HOME=/root/soft/jdk1.8.0_231
。
vi hadoop-env.sh
vi mapred-env.sh
vi yarn-env.sh
4. 配置core-site.xml
修改../xx/hadoop-2.6.5/etc/hadoop/
下的 core-site.xml
文件
vi core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://lft:9000</value>
<!-- 以上ip地址或主机名要按实际情况修改 -->
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/var/lft/hadoop/local</value>
</property>
</configuration>
5. 配置hdfs-site.xml
修改../xx/hadoop-2.6.5/etc/hadoop/
下的 hdfs-site.xml
文件
vi hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>lft:50090</value>
<!-- 以上ip地址或主机名要按实际情况修改 -->
</property>
</configuration>
6. 配置mapred-site.xml
修改../xx/hadoop-2.6.5/etc/hadoop/
下的 mapred-site.xml.template
文件
先更名,后配置
cp mapred-site.xml.template mapred-site.xml
vi mapred-site.xml
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
7. 配置yarn-site.xml
修改../xx/hadoop-2.6.5/etc/hadoop/
下的 yarn-site.xml
文件
vi yarn-site.xml
<property>
<name>yarn.resourcemanager.hostname</name>
<value>lft</value>
<!-- 以上主机名或IP地址按实际情况修改 -->
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
8. 配置slaves文件
修改../xx/hadoop-2.6.5/etc/hadoop/
下的 slaves
文件
vi slaves
该文件只编辑一行内容即可:lft
(localhost也行,我这个改为自己配的主机名)
9. 格式化hdfs
hdfs namenode -format
(只能格式化一次,再次启动集群不要执行)
10. 启动集群并验证环境是否成功搭建
10.1 启动hdfs
start-dfs.sh
(1)角色进程查看:jps
帮助: hdfs
hdfs dfs
(2)浏览器查看web UI: http://你的IP:50070
10.2 启动yarn
start-yarn.sh
WEB UI 输入 http://你的ip:8088
- JavaScript 教程
- JavaScript 编辑工具
- JavaScript 与HTML
- JavaScript 与Java
- JavaScript 数据结构
- JavaScript 基本数据类型
- JavaScript 特殊数据类型
- JavaScript 运算符
- JavaScript typeof 运算符
- JavaScript 表达式
- JavaScript 类型转换
- JavaScript 基本语法
- JavaScript 注释
- Javascript 基本处理流程
- Javascript 选择结构
- Javascript if 语句
- Javascript if 语句的嵌套
- Javascript switch 语句
- Javascript 循环结构
- Javascript 循环结构实例
- Javascript 跳转语句
- Javascript 控制语句总结
- Javascript 函数介绍
- Javascript 函数的定义
- Javascript 函数调用
- Javascript 几种特殊的函数
- JavaScript 内置函数简介
- Javascript eval() 函数
- Javascript isFinite() 函数
- Javascript isNaN() 函数
- parseInt() 与 parseFloat()
- escape() 与 unescape()
- Javascript 字符串介绍
- Javascript length属性
- javascript 字符串函数
- Javascript 日期对象简介
- Javascript 日期对象用途
- Date 对象属性和方法
- Javascript 数组是什么
- Javascript 创建数组
- Javascript 数组赋值与取值
- Javascript 数组属性和方法