hadop 설치 및 HDFS 간단 한 조작

10869 단어 빅 데이터
1. hadop 클 러 스 터 의 설치 실제 개발 의 실제 배치
학습 중인 배치
1. 리 눅 스 환경 1.0 을 준비 하고 가상 컴퓨터 의 네트워크 모드 를 NAT 로 선택
1.1     
	vi /etc/sysconfig/network
	
	NETWORKING=yes
	HOSTNAME=itcast    ###

1.2  IP
	    :
	   :  Linux        (    )
		  Linux     ->               ->   Edit connections ->       System eth0 ->   edit   ->   IPv4 -> method   manual ->   add   ->   IP:192.168.1.101     :255.255.255.0   :192.168.1.1 -> apply

	   :        (       )
		vim /etc/sysconfig/network-scripts/ifcfg-eth0
		
		DEVICE="eth0"
		BOOTPROTO="static"               ###
		HWADDR="00:0C:29:3C:BF:E7"
		IPV6INIT="yes"
		NM_CONTROLLED="yes"
		ONBOOT="yes"
		TYPE="Ethernet"
		UUID="ce22eeca-ecde-4536-8cc2-ef0dc36d4a8c"
		IPADDR="192.168.1.101"           ###
		NETMASK="255.255.255.0"          ###
		GATEWAY="192.168.1.1"            ###
		
1.3      IP     
	vim /etc/hosts
		
	192.168.1.101	itcast

1.4     
	#       
	service iptables status
	#     
	service iptables stop
	#           
	chkconfig iptables --list
	#         
	chkconfig iptables off
1.5   sudo
	su root
	vim /etc/sudoers
	 hadoop         

linux 서버 의 그래 픽 인터페이스 닫 기: vi / etc / inittab
1.5  Linux
	reboot

2. JDK 2.1 을 설치 하여 alt + p 를 업로드 한 후 sftp 창 이 나타 나 고 put d: \ xxx \ yy \ ll \ jdk - 7u65-i585.tar.gz
2.2  jdk
	#     
	mkdir /home/hadoop/app
	#  
	tar -zxvf jdk-7u55-linux-i586.tar.gz -C /home/hadoop/app
	
2.3 java        
	vim /etc/profile
	#       
	export JAVA_HOME=/home/hadoop/app/jdk-7u_65-i585
	export PATH=$PATH:$JAVA_HOME/bin

	#    
	source /etc/profile

3. hadop 2.4.1 설치 후 서버 에 hadop 패 키 지 를 업로드 / home / hadop / 메모: hadop 2. x 설정 파일 $HADOOPHOME / etc / hadop 의사 분포 식 은 5 개의 프로필 3.1 설정 hadop 을 수정 해 야 합 니 다. 첫 번 째: hadop - env. sh vim hadop - env. sh \ # 27 번 째 줄 export JAVAHOME=/usr/java/jdk1.7.0_65
   :core-site.xml

	
	
		fs.defaultFS
		hdfs://weekend-1206-01:9000
	
	
	
		hadoop.tmp.dir
		/home/hadoop/hadoop-2.4.1/tmp
	
	
   :hdfs-site.xml   
	
	
		dfs.replication
		1
	
	
	
		dfs.secondary.http.address
		192.168.1.152:50090
	



	
   :mapred-site.xml (mv mapred-site.xml.template mapred-site.xml)
	mv mapred-site.xml.template mapred-site.xml
	vim mapred-site.xml
	
	
		mapreduce.framework.name
		yarn
	
	
   :yarn-site.xml
	
	
		yarn.resourcemanager.hostname
		weekend-1206-01
	
	
	
		yarn.nodemanager.aux-services
		mapreduce_shuffle
	
 	
3.2 hadoop       

vim /etc/proflie
	export JAVA_HOME=/usr/java/jdk1.7.0_65
	export HADOOP_HOME=/itcast/hadoop-2.4.1
	export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

source /etc/profile

3.3   namenode(  namenode     )
	hdfs namenode -format (hadoop namenode -format)
	
3.4  hadoop
	   HDFS
	sbin/start-dfs.sh
	
	   YARN
	sbin/start-yarn.sh
	
3.5        
	  jps    
	27408 NameNode
	28218 Jps
	27643 SecondaryNameNode
	28066 NodeManager
	27803 ResourceManager
	27512 DataNode

	http://192.168.1.101:50070 (HDFS    )
	http://192.168.1.101:8088 (MR    )

4. ssh 로그 인 면제 설정 \ # ssh 로그 인 면제 키 생 성 \ # 내 홈 디 렉 터 리 cd 에 들 어 갑 니 다 ~ /. ssh
ssh-keygen -t rsa (    )
        ,       id_rsa(  )、id_rsa.pub(  )
                 
ssh-copy-id localhost
---------------------------
ssh   :
	  key:
	ssh-keygen
	   A   B :
	ssh-copy-id B
	  :
	ssh localhost/exit,ps -e|grep ssh
	ssh A  # B   

방화벽 상 태 를 보 는 명령 은 sudo systemctl status firewalld 입 니 다.방화벽 을 여 는 방식 은 두 가지 가 있 습 니 다. 하 나 는 열 고 다시 시작 하면 원래 상태 로 돌아 갑 니 다. 명령 은 sudo systemctl start firewalld 입 니 다.다른 하 나 는 열 린 후에 다시 시작 하면 원래 상태 로 돌아 오지 않 습 니 다. sudo systemctl enable firewalld 는 명령 을 입력 한 후에 시스템 을 다시 시작 해 야 합 니 다.방화벽 을 닫 는 방식 도 두 가지 가 있 습 니 다. 열 림 과 대응 되 며 명령 은 각각 sudo systemctl stop firewalld sudo systemctl disable firewalld 입 니 다.hostnamectl set - hostname centos77. magedu. com \ # 이 명령 을 사용 하면 즉시 효력 이 발생 하고 재 부팅 도 적 용 됩 니 다.
  • cd etc / hadop / 2. vi hadop - env. sh hadop 은 ssh 를 통 해 시작 되 므 로 JAVA 를 다시 설정 해 야 합 니 다.HOME export JAVA_HOME=/usr/local/jdk1.7.0_65

  • 5.vi core-site.xml fs.defaultFS hdfs://192.168.186.5:9000#파일 시스템 의 형식 및 namenode hadop. tmp. dir / home / hadop / hdpddata configuration > 을 지정 합 니 다.
  • vi hdfs - site. xml (기본 값 을 동반 하지 않 아 도 됩 니 다) dfs. replication 2
  • 7. vi mapred - site. xml. template mapreduce. framework. name \ # MapReduce 가 실행 하 는 클 러 스 터 yarn \ # 기본 값 은 local 입 니 다. 로 컬 에서
    8.mv mapred-site.xml.template mapred-site.xml 9. vi yarn-site.xml yarn.resourcemanager.hostname 192.168.186.5
                
                        yarn.nodemanager.aux-services
                        mapreduce_shuffle
                
    

    10. 다른 기기 scp - r apps / 192.168.186.7: / home / hadop /... 11. 방화벽 을 닫 고 hadop 을 설정 하 는 환경 변수 sudo service iptables stop sudo service iptables status sudo chkconfig iptables off sudo chkconfig iptables -- list vi / etc / profile export PATH = P A T H: PATH: PATH: JAVAHOME/bin export HADOOP_HOME=/home/hadoop/apps/hadoop-2.6.4 export PATH= P A T H : PATH: PATH:HADOOP_HOME/bin:$HADOOP_HOME/sbin
    12. / etc / profile 을 다른 기기 에 복사 합 니 다. 12. 1. datanode 에 salves 파일 을 설정 하고 hosts 파일 (hosts 파일 을 배치 해 야 salve 를 찾 을 수 있 습 니 다. salves 파일 은 스 크 립 트 를 자동 으로 시작 하 는 데 사 용 됩 니 다) 13. 포맷 파일 시스템 hadop namenode - format 14. 각각 namenode. datanode hadop - daemon. sh start namenode hadop - daemon. sh stop datanode 를 시작 합 니 다.
    2. hadop 의 셸 작업 ~ / hdpdata / dfs / data / current / BP - 1375190175 - 192.168.186.5 - 1569144114991 / current / finalized / 이 경 로 는 데이터 의 저장 위치 / home / hadop / apps / hadop - 2.6.4 / bin / hadop 이 hadop 인 클 라 이언 트 hadop fs - pt / get 파일 이름 의 다른 작업 은 Liux 와 일치 합 니 다.MapReduce 의 인 스 턴 스
  • apps / hadop - 2.6.4 / share / hadop / mapreduce / hadop - mapreduce - examples - 2.6.4. jar 에는 MapReduce 의 예 가 많 습 니 다.
    3.2 상용 명령 파라미터 소개 또는 hdfs dfs - help            기능: 이 명령 매개 변수 매 뉴 얼 출력 - ls                 기능: 디 렉 터 리 정보 예시 보이 기: hadop fs - lshdfs://hadoop-server01:9000/비고: 이 매개 변수 들 중 모든 hdfs 경 로 를 간략하게 쓸 수 있 습 니 다 – > hadop fs - ls /  이전 명령 과 같은 효과 - mkdir             기능: hdfs 에 디 렉 터 리 예제 만 들 기: hadop fs -mkdir  -p  /aaa/bbb/cc/dd -moveFromLocal            기능: 로 컬 잘라 내기 에서 hdfs 예제 에 붙 여 넣 기: hadop fs  - moveFromLocal  /home/hadoop/a.txt  /aaa/bbb/cc/dd-moveToLocal              기능: hdfs 잘라 내기 에서 로 컬 예제 에 붙 여 넣 기: hadop fs  - moveToLocal   /aaa/bbb/cc/dd  /home/hadoop/a.txt –appendToFile  기능: 이미 존재 하 는 파일 의 끝 에 파일 을 추가 합 니 다. 예제: hadop fs  -appendToFile  ./hello.txt  hdfs://hadoop-server01:9000/hello.txtHadoop fs  -appendToFile  ./hello.txt  /hello.txt  -cat  기능: 파일 내용 보이 기 예제: hadop fs - cat /hello.txt -tail                 기능: 파일 의 끝 예제 보이 기: hadop fs  -tail  /weblog/access_log.1-text                  기능: 파일 을 문자 로 인쇄 하 는 내용 예제: hadop fs  -text  /weblog/access_log. 1 - chgrp - chmod - chown 기능: Liux 파일 시스템 의 용법 과 마찬가지 로 파일 에 속 하 는 권한 예제: hadop fs  -chmod  666  /hello.txthadoop  fs  -chown  someuser:somegrp   /hello.txt -copyFromLocal    기능: 로 컬 파일 시스템 에서 hdfs 경로 로 파일 복사 예시: hadop fs  -copyFromLocal  ./jdk.tar.gz  /aaa/-copyToLocal      기능: hdfs 에서 로 컬 예제 로 복사: hadop fs - copyToLocal / aa / jdk. tar. gz - cp             기능: hdfs 의 한 경로 에서 hdfs 를 복사 하 는 다른 경로 예제: hadop  fs  -cp  /aaa/jdk.tar.gz  /bbb/jdk.tar.gz.2 -mv                     기능: hdfs 디 렉 터 리 에서 파일 예제 이동: hadop  fs  -mv  /aaa/jdk.tar.gz  / -get              기능: copy ToLocal 과 같 습 니 다. hdfs 에서 파일 을 다운로드 하여 로 컬 예제: hadop fs - get /aaa/jdk.tar.gz-getmerge             기능: 여러 파일 예제 통합 다운로드: 예 를 들 어 hdfs 디 렉 터 리 / aa / 아래 에 여러 파일 이 있 습 니 다: log. 1, log. 2, log. 3, hadop fs - getmerge / aa / log. *. / log. sum - pt               기능: copy FromLocal 예제 와 같 습 니 다: hadop  fs  -put  /aaa/jdk.tar.gz  /bbb/jdk.tar.gz.2  -rm                기능: 파일 이나 폴 더 예제 삭제: hadop fs - rm - r / aa / bbb / -rmdir                 기능: 빈 디 렉 터 리 삭제 예제: hadop fs  -rmdir   /aaa/bbb/ccc -df               기능: 통계 파일 시스템 의 사용 가능 한 공간 정보 예시: hadop  fs  -df  -h  / -du 기능: 통계 폴 더 의 크기 정보 예시: hadop fs  -du  -s  -h /aaa/*  -count         기능: 지정 한 디 렉 터 리 의 파일 노드 수량 예시: hadop fs - count / aa /  -setrep                기능: hdfs 에서 파일 의 복사 본 수량 예제 설정: hadop fs - seetrep 3 / aaa / jdk. tar. gz
    간단 한 HDFS 자바 작업: package hadop. hdfs;
    import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import org.junit.Before; import org.junit.Test;
    import java.io.IOException; import java.net.URI;
    /**
  • @program:bigdata
  • @package:hadoop.hdfs
  • @filename:SimpleHdfsDemo.java
  • @create:2019.09.22.20.19
  • @author:Administrator
  • @descrption. */ public class SimpleHdfsDemo { FileSystem fs=null; @Before public void init() throws Exception {
     Configuration conf=new Configuration();
    

  • // conf.set(“fs.defaultFS”,“hdfs://master:9000"); / / 이 방식 은 실행 할 때 사용 자 를 지정 하 는 매개 변 수 를 추가 해 야 합 니 다. - DADOOP USER NAME = hadop fs = FileSystem. get (new URI (")hdfs://192.168.186.5:9000"), conf," hadop ");} @ Test public void testUpload () throws Exception {fs. copyFromLocalFile (new Path (" D: \ \ 빅 데이터 \ \ 빅 데이터 세트 (공유 됨)\ \ 문서 자료 \ \ day 06 \ \ day 06 \ hadop 2.4.1 클 러 스 터 구축. txt "), new Path (" / test 1. txt "); fs. close ();} @ Test public void testDownload () throws IOException {fs. copyToLocalFile (" / test 1. txt "), new Path (" d: \ 2. txt "), fs. close ();}}}
    읽 기 동작 과 관련 이 있 으 면 로 컬 에 hadop 클 라 이언 트 가 있어 야 합 니 다. 다운로드 하 는 과정 에서 HADOOP 이 나타 나 면HOME and hadop. home. dir are unset, 그러면 windows 로 컬 hadop 환경 변 수 를 설정 하지 않 았 다 는 것 을 의미 합 니 다. 제 가 원 격 으로 Liux 의 hadop 을 호출 하 는 것 이 제 로 컬 hadop 과 무슨 관계 가 있다 고 생각 하 시 겠 습 니까?업로드, 디 렉 터 리 만 들 기, 파일 이름 바 꾸 기 (쓰기) 등 원 격 hadop 에 만 적용 된다 면 windows 로 컬 에 hadop 을 설정 할 필요 가 없습니다. 다운로드 (읽 기) 와 관련 되면 hadop 내부 캐 시 체 제 는 로 컬 에 도 hadop 이 있어 야 합 니 다. 또한 HADOOP 이 나타 날 수 있 습 니 다.HOME and hadop. home. dir are unset, 해결 방법 설정 HADOOPHOME 가입% HADOOPHOME% \ bin 을 PATH 에 넣 고 hadop version 명령 을 테스트 합 니 다. 효과 가 있 으 면 eclipse / my eclipse 를 다시 시작 합 니 다. 하지만 아직 부족 합 니 다. windows 의 hadop 은 winutils. exe 가 필요 합 니 다. 그렇지 않 으 면 Could not locate Hadoop executable: xxxx \ winutils. exe 에 보고 합 니 다.

    좋은 웹페이지 즐겨찾기