궁극적인 Hadoop 설치 치트 시트

1. 자바 설치



$ apt-get -y upgrade && apt-get -y update
$ apt install -y default-jdk
$ java --version

2. 전용 Hadoop 사용자 생성



$ sudo addgroup [group name]
$ sudo adduser --ingroup [group name] [user name] 
$ sudo adduser [username] sudo # Add to sudoers group

3. SSH를 사용하여 로컬 및 HDFS 네트워크 연결 설정



$ sudo apt-get install openssh-client openssh-server
$ su - [username]
$ ssh-keygen -t rsa -P ""
$ cat $HOME/.ssh/id_rsa.pub >> $HOME/.ssh/authorized_keys

4. 공식 레지스트리에서 Hadoop Tar 파일 다운로드



링크Hadoop Registry .

$ cd [to hadoop folder]
$ sudo tar xvzf [folder name]
$ sudo mv [extracted folder] /usr/local/hadoop
$ sudo chown -R [username] /usr/local/hadoop

5. 구성 수행



1. ~/.bashrc



파일 끝에 다음 줄 추가

export JAVA_HOME=/usr/lib/jvm/java-11-openjdk-amd64
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/native"

  • 파일을 실행하여 변경 사항을 수정하십시오.

  • $ source ~/.bashrc
    

    2. /usr/local/hadoop/etc/hadoop/hadoop-env.sh



    export JAVA_HOME=/usr/lib/jvm/java-11-openjdk-amd64
    

    3. 나노 /usr/local/hadoop/etc/hadoop/core-site.xml



    <configuration>
    <property>
    <name>fs.default.name</name>
    <value>hdfs://localhost:9000</value>
    </property>
    </configuration>
    

    4. /usr/local/hadoop/etc/hadoop/hdfs-site.xml



    <property>
    <name>dfs.replication</name>
    <value>1</value>
    </property>
    <property>
    <name>dfs.namenode.name.dir</name>
    <value>file:/usr/local/hadoop_tmp/hdfs/namenode</value>
    </property>
    <property>
    <name>dfs.datanode.data.dir</name>
    <value>file:/usr/local/hadoop_tmp/hdfs/datanode</value>
    </property>
    

    5. /usr/local/hadoop/etc/hadoop/yarn-site.xml



    <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
    </property>
    <property>
    <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
    <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    </property>
    

    6. /usr/local/hadoop/etc/hadoop/mapred-site.xml



    <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
    </property>
    

    6. 데이터 노드 및 이름 노드에 대한 디렉토리 생성



    $ sudo mkdir -p /usr/local/hadoop_space
    $ sudo mkdir -p /usr/local/hadoop_space/hdfs/namenode
    $ sudo mkdir -p /usr/local/hadoop_space/hdfs/datanode
    $ sudo chown -R nish /usr/local/hadoop_space
    

    7. 실행 중인 Hadoop 실행



    나. 형식 이름 노드



    $ hdfs namenode -format
    

    ii. 모든 하둡 구성 요소 시작



    $ start-dfs.sh
    

    iii. 원사 시작



    $ start-yarn.sh
    

    iv. 어떤 구성 요소가 작동 중인지 확인



    $ jps
    

    좋은 웹페이지 즐겨찾기