ifconfig -aを使用して各マシンのIPを確認し、pingコマンドを使用して相互にpingを送信できるかどうかを確認し、各マシンのIPを記録します。hostnamectl set-hostname master
vi /etc/hosts
202.xxx.xxx.xxx master202.xxx.xxx.xxx slave1202.xxx.xxx.xxx slave2202.xxx.xxx.xxx slave3# IPアドレスを実際のIPに置き換えます
systemctl status firewalld.service # ファイアウォールのステータスをチェックしますsystemctl stop firewalld.service # ファイアウォールを無効にしますsystemctl disable firewalld.service # ファイアウォールの起動を無効にします
yum install -y ntp # ntpサービスをインストールしますntpdate cn.pool.ntp.org # ネットワークの時刻を同期させます
rootルートディレクトリにアップロードします。mkdir /usr/javatar -zxvf jdk-8u144-linux-x64.tar.gz -C /usr/java/rm -rf jdk-8u144-linux-x64.tar.gz
scp -r /usr/java slave1:/usrscp -r /usr/java slave2:/usrscp -r /usr/java slave3:/usr.......
vi /etc/profile
export JAVA_HOME=/usr/java/jdk1.8.0_144export PATH=$JAVA_HOME/bin:$PATHexport CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
source /etc/profile # 設定ファイルを有効にするjava -version # javaバージョンを確認する
systemctl status sshd.service //SSHサービスのステータスをチェックしますyum install openssh-server openssh-clients //SSHサービスをインストールします。すでにインストールされている場合は、この手順は不要ですsystemctl start sshd.service //SSHサービスを開始します。すでにインストールされている場合は、この手順は不要です
ssh-keygen -t rsa //キーの発行
cp ~/.ssh/id_rsa.pub ~/.ssh/slave1.id_rsa.pubscp ~/.ssh/slave1.id_rsa.pub master:~/.ssh
cp ~/.ssh/id_rsa.pub ~/.ssh/slave2.id_rsa.pubscp ~/.ssh/slave2.id_rsa.pub master:~/.ssh
cd ~/.sshcat id_rsa.pub >> authorized_keyscat slave1.id_rsa.pub >>authorized_keyscat slave2.id_rsa.pub >>authorized_keysscp authorized_keys slave1:~/.sshscp authorized_keys slave2:~/.sshscp authorized_keys slave3:~/.ssh
rootルートディレクトリにアップロードします。tar -zxvf hadoop-2.7.4.tar.gz -C /usrrm -rf hadoop-2.7.4.tar.gzmkdir /usr/hadoop-2.7.4/tmpmkdir /usr/hadoop-2.7.4/logsmkdir /usr/hadoop-2.7.4/hdfmkdir /usr/hadoop-2.7.4/hdf/datamkdir /usr/hadoop-2.7.4/hdf/name
hadoop-2.7.4/etc/hadoopディレクトリに移動し、次の操作に進みます。hadoop-env.shファイルを変更して、以下を追加しますexport JAVA_HOME=/usr/java/jdk1.8.0_144
hadoop-env.shファイルで以下のように変更します。export HADOOP_SSH_OPTS="-p 1234"
yarn-env.shを変更しますexport JAVA_HOME=/usr/java/jdk1.8.0_144
slavesを変更します削除:localhost追加:slave1slave2slave3
core-site.xmlを変更します<configuration><property><name>fs.default.name</name><value>hdfs://master:9000</value></property><property><name>hadoop.tmp.dir</name><value>file:/usr/hadoop-2.7.4/tmp</value></property></configuration>
hdfs-site.xmlを変更します<configuration><property><name>dfs.datanode.data.dir</name><value>/usr/hadoop-2.7.4/hdf/data</value><final>true</final></property><property><name>dfs.namenode.name.dir</name><value>/usr/hadoop-2.7.4/hdf/name</value><final>true</final></property></configuration>
mapred-site.xmlを変更します<configuration><property><name>mapreduce.framework.name</name><value>yarn</value></property><property><name>mapreduce.jobhistory.address</name><value>master:10020</value></property><property><name>mapreduce.jobhistory.webapp.address</name><value>master:19888</value></property></configuration>
mapred-site.xml.template をコピーして、mapred-site.xml という名前にしますcp mapred-site.xml.template mapred-site.xml
yarn-site.xmlを変更します<configuration><property><name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name><value>org.apache.mapred.ShuffleHandler</value></property><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><property><name>yarn.resourcemanager.address</name><value>master:8032</value></property><property><name>yarn.resourcemanager.scheduler.address</name><value>master:8030</value></property><property><name>yarn.resourcemanager.resource-tracker.address</name><value>master:8031</value></property><property><name>yarn.resourcemanager.admin.address</name><value>master:8033</value></property><property><name>yarn.resourcemanager.webapp.address</name><value>master:8088</value></property></configuration>
scp -r /usr/ hadoop-2.7.4 slave1:/usrscp -r /usr/ hadoop-2.7.4 slave2:/usrscp -r /usr/ hadoop-2.7.4 slave3:/usr
vi /etc/profile
export HADOOP_HOME=/usr/hadoop-2.7.4export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATHexport HADOOP_LOG_DIR=/usr/hadoop-2.7.4/logsexport YARN_LOG_DIR=$HADOOP_LOG_DIR
source /etc/profile
cd /usr/hadoop-2.7.4/sbinhdfs namenode -format
cd /usr/hadoop-2.7.4/sbinstart-all.sh
2212 ResourceManager2484 Jps1917 NameNode2078 SecondaryNameNode
17153 DataNode17334 Jps17241 NodeManager
hadoop fs -mkdir inputhadoop fs -put input.txt /inputhadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.4.jar wordcount /input /output/

hadoop fs -ls /output
hadoop fs -cat /output/part-r-00000

フィードバック