Hadoop 학습 노트(2) - 데이터 노드 추가 및 HDFS 원격 마운트

1. 새로운 데이터 노드 추가
namenode 서버의hadoop 프로필slave를 수정하고 이 파일에 그룹에 새로 추가합니다
서버 이름 (hostname) 과/etc/hosts 파일에 해당하는 해결 항목을 추가합니다. 내용은 다음과 같습니다.

  
  
  
  
  1. [root@namenode~]# cat /etc/hosts 
  2.  
  3. 127.0.0.1       localhost.localdomain   localhost 
  4.  
  5. ::1             namenode        localhost6.localdomain6 localhost6 
  6.  
  7. 192.168.2.9     namenode 
  8.  
  9. 192.168.5.55   nagios-server 
  10.  
  11. 192.168.2.4     datanode 

수정이 완료되면 전체 Hadoop 파일의 디렉터리와 JDK 디렉터리를 새 노드로 복사합니다. (여기는 Datanode입니다. 단번에 datanode로 표시합니다.)

  
  
  
  
  1. [root@namenode ~]# scp –pr /opt/hadoop 192.168.2.4:/opt/hadoop 
  2. [root@namenode ~]# scp –pr /usr/java 192.168.2.4:/usr/java 

datanode 위의/etc/hosts 파일을 다음과 같이 수정합니다.

  
  
  
  
  1. [root@datanode ~]# cat /etc/hosts 
  2.  
  3. 127.0.0.1        localhost.localdomain   localhost 
  4.  
  5. ::1              datanode        localhost6.localdomain6 localhost6 
  6.  
  7. 192.168.2.9      namenode 
  8.  
  9. 192.168.5.55    nagios-server 
  10.  
  11. 192.168.2.4      datanode 

datanode 서버의 환경 변수를 설정하여/etc/profile 파일을 쉽게 쓸 수 있도록 합니다. (사용자의/home/USER/.bash_profile 또는/root/.bash_profile 파일에도 쓸 수 있습니다.)
 

  
  
  
  
  1. export OS_ARCH=amd64 
  2. export OS_BIT=64 
  3. export JAVA_HOME=/usr/java/jdk1.6.0_14 
  4. export CLASSPATH=$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar 
  5. export ANT_HOME=/usr/local/ant 
  6. export PATH=$JAVA_HOME/bin:$PATH 
  7. export ZOOKEEPER_INSTALL=/opt/hadoop/zookeeper 
  8. export PATH=$PATH:$ZOOKEEPER_INSTALL/bin 
  9. export HADOOP_HOME=/opt/hadoop/hadoop 
  10. export HADOOP_INSTALL=/opt/hadoop/hadoop 
  11. export PATH=$PATH:$HADOOP_HOME/bin 
  12. export LANG=zh_CN.GBK 
  13. export HIVE_HOME=/opt/hadoop/hive 
  14. export PATH=$HIVE_HOME/bin:$PATH:$ANT_HOME/bin 
  15. export LD_LIBRARY_PATH=$JAVA_HOME/jre/lib/$OS_ARCH/server:${HADOOP_HOME}/c++/Linux-$OS_ARCH-$OS_BIT/lib:/usr/local/lib:/usr/lib  

이 작업을 완료하면 Datanode 서버에서 HDFS를 시작합니다.

  
  
  
  
  1. [root@datanode ~]#start-dfs.sh 

시작 후 이 노드는 이전의hadoop 그룹에 자동으로 가입합니다.
 
2. WebDav
WebDav가 제공하는 네트워크 저장소를 마운트하려면 세 개의 패키지를 설치해야 합니다. 각각fuse,neon,davfs2
1. 컴파일 설치fuse

  
  
  
  
  1. [root@datanode src]# tar fvxz fuse-2.8.5.tar.gz 
  2. [root@datanode src]# cd fuse-2.8.5 
  3. [root@datanode fuse-2.8.5]# ./configure 

만약 컴파일이 끝난 후에 정상적으로 컴파일되었는지 확인하지 못하면, 명령으로 echo $를 사용할 수 있습니까?반환값 확인을 가져오려면 0은 정상이고 나머지는 오류가 있음을 나타냅니다.

  
  
  
  
  1. [root@datanode fuse-2.8.5]# make && make install 

2, 컴파일 설치 neon

  
  
  
  
  1. [root@datanode src]# tar fvxz neon-0.29.6.tar.gz
  2. [root@datanode src]# cd neon-0.29.6
  3. [root@datanode neon-0.29.6]# ./configure 
  4. [root@datanode neon-0.29.6]# make && make install

3. 컴파일 설치davfs2

  
  
  
  
  1. [root@datanode src]# tar fvxz davfs2-1.4.6.tar.gz 
  2. [root@datanode src]# cd davfs2-1.4.6 
  3. [root@datanode davfs2-1.4.6]# ./configure 
  4. [root@datanode davfs2-1.4.6]# make && make install

4. 웹dav 마운트
hdfs를 마운트하려면 명령 마운트를 사용해야 합니다.davfs, 이 명령을 사용하려면 davfs2 사용자가 필요합니다. 따라서 이 사용자를 만듭니다.

  
  
  
  
  1. [root@datanode~]# useradd davfs2 

이후 마운트 시작:

  
  
  
  
  1. [root@datanode ~]# mount.davfs http://192.168.2.9:8080/hdfs-webdav /hdfs 
  2. Please enter the username to authenticate with server 
  3. http://192.168.2.9:8080/hdfs-webdav or hit enter for none. 
  4. Username: davfs2 
  5. Please enter the password to authenticate user davfs2 with server 
  6. http://192.168.2.9:8080/hdfs-webdav or hit enter for none. 
  7.   Password:  

완성되면 마운트 포인트에 들어가 볼 수 있습니다.여러분의 성공을 기원합니다.
 
Hadoop 학습지 (1)

좋은 웹페이지 즐겨찾기