大数据环境搭建-之-hadoop 2.x分布式部署-集群配置
1、 下载hadoop 并解压
2、为 hadoop 文件分配角色
chown -R hadoop:hadoop hadoop
组名:角色名 文件名
3、ls -l 查看详细信息 角色分配是否成功
4、创建hadoop 需要的文件目录
mkdir -p /data/dfs/name
mkdir -p /data/dfs/data
mkdir -p /data/tmp
5、 分配角色 权限给自己的用户目录,如hadoop用户
chown -R hadoop:hadoop hadoop/data
6、 ls -l 查看是否分配成功
7、修改hadoop 配置文件
a、 core-site.xml
b、hdfs-site.xml
c、mapred-site.xml
d、slave
8、配置hadoop 环境变量
HADOOP_HOME=/usr/java/hadoop
PATH=$HADOOP_HOME/bin:$PATH
export HADOOP_HOME PATH
9、格式化hadoop bin/hadoop namenode -format
10 、启动hadoop sbin/start-all.sh
11、jps 查看进程是否启动
NodeManager
ResourceManager
Jps
DataNode
NameNode
SecondaryNameNode
12、hdfs 创建目录
bin/hadoop fs -mkdir /dajiangtai
13、hdfs 的dajiangtai目录添加文件
hadoop fs -put /usr/java/hadoop/djt.txt /dajiangtai
14、验证地址
http://cjqlinux:8088/cluster/apps
http://cjqlinux:50070