1.克隆前的工作 1.配置好网络nat 需要设置静态ip并能通过主机上网 ssh 和 rsync 是必须下载的 2.yum install vim wget rsync ssh 并配置vim set nu set ts=4 .vimrc 3.下载jdk和Hadoop 解压到/usr/local/java 和 /usr/local/hadoop 4.配置java 和 hadoop 的环境变量 .bashrc 5.修改 /usr/local/hadoop/etc/hadoop/core-site.xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://nodeone:9000</value> </property> </configuration> 修改/usr/local/hadoop/etc/hadoop/hadoop-env.sh export JAVA_HOME=/usr/local/java 6.关闭防火墙,并永久关闭防火墙2.克隆后的工作 1.修改每台机器的IP vim /etc/sysconfig/network-script/ifcfg-ens33 hostnamectl set-hostname two hostname reboot -f 和hostname 101 nodetwo 102 nodethree 103 nodefour reboot -f 2.修改每台机器的 /etc/hostso 192.168.59.100 one 192.168.59.101 two 192.168.59.102 three 192.168.59.103 four 4.one启动namenode hdfs namenode -format 格式化启动hadoop-daemon.sh start namenode namenode 其他启动datanode hadoop-daemon.sh start namenode / 其他的启动 datanode
分屏显示 hdfs dfsadmin -report | more
分布式管理 查看 192.168.59.122:50070 hdfs dfsadmin -report
笔记仅适合参考 我用的是xshell5
转载于:https://www.cnblogs.com/zhuhuibiao/p/9651423.html
相关资源:JAVA上百实例源码以及开源项目