下载HADOOP
2、Core-site.xml文件配置 注意:以下所有文件均在对应文件夹下面 可以命令行编辑 也可在vscode 编辑
<configuration> <property> <name>fs.default.name</name> <value>hdfs://localhost:9000</value> </property> </configuration>3、Hdfs-site.xml文件配置
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.name.dir</name> <value>file:///home/hadoop/hadoopdata/hdfs/namenode</value> </property> <property> <name>dfs.data.dir</name> <value>file:///home/hadoop/hadoopdata/hdfs/datanode</value> </property> </configuration>4、Mapred-site.xml文件配置
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>5、Yarn-site.xml文件配置
<configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration>(九)启动集群 1、重启格式化HDFS
hdfs namenode -format
2、启动文件系统
start-dfs.sh
3、启动文件系统报错配置JAVA_HOME
看我上一篇博客配置jdk
4、启动文件系统
start-dfs.sh
5、启动YARN
start-yarn.sh
6、访问
http://localhost:50070
7、访问50070端口失败手动配置端口
8、测试HADOOP 9、关闭服务
Stop-all.sh10、查看DATANODE信息
jps(十)测试服务
1、Brower Directort 报错则更改jdk1.8版本就可以了
2、Hdoop上传文件以及查看状态
可以采取界面操作
h’d’f’s dfs -put 你文件的路径
3、测试上传以及下载文件
建议采用界面操作