아 리 텐 센트 구름 hadop + spark 군집 구축 (1)
6354 단어 빅 데이터
linux 버 전: centos 7
hadop 버 전: 3.1.1
손 에 학생 기 가 세 대 있 는데 전혀 움 직 이지 않 았 습 니 다. 하 나 는 아 리 클 라 우 드 서버 이 고 두 대 는 텐 센트 클 라 우 드 입 니 다.
아 리 클 라 우 드 로 namenode 를 만 들 고 텐 센트 클 라 우 드 로 datanode 를 만 듭 니 다.
목 표 는 hdfs 와 yarn 을 잘 타고 뒤에 spark 와 hive 를 타 는 것 이다.
$ sudo yum -y update
$ sudo yum install -y java-1.8.0-openjdk java-1.8.0-openjdk-devel.x86_64 net-tools rsync mlocate wget vim gcc zlib-dev openssl-devel sqlite-devel bzip2-devel python-devel
입 니 다. 여기 서 yum 을 통 해 설 치 된 jdk 경 로 는 기본적으로 / usr / lib 에서 찾 는 방법 입 니 다. $ whereis java
( java: /usr/bin/java /usr/lib/java /etc/java....)
$ ll /usr/bin/java
( /usr/bin/java -> /etc/alternatives/java, )
$ ll /etc/alternatives/java
( /usr/lib/jvm/java-1.8.0-openjdk-1.8.0.191.b12-0.el7_5.x86_64/jre/bin/java)
시스템 에 여러 버 전의 jdk 가 있 을 수 있 기 때문에 /etc/alternatives/java
소프트 링크 는 실제 사용 하 는 jdk 버 전 을 지정 하 는 데 사 용 됩 니 다./usr/lib/jvm/java-1.8.0-openjdk-1.8.0.191.b12-0.el7_5.x86_64
바로 설 치 된 위치 입 니 다. : 1/65530 :0.0.0.0/0
$ sudo systemctl stop firewalld.service
$ sudo systemctl disable firewalld.service
111.**.**.*8 slave1 ( IP)
134.**.**.*16 slave2 ( IP)
192.**.*.*12 master ( IP)
텐 센트 클 라 우 드 의 데이터 node 두 대, hosts 는 다음 과 같 습 니 다. 39.**.2**.*2 master ( IP)
172.**.*.9 slave1 ( IP)
172.**.*.7 slave2 ( IP)
$ adduser hadoop
$ passwd hadoop
( hadoop )
$ su hadoop
이 때 루트 신분 에서 hadop 으로 전환 합 니 다.$ curl -O https://www-us.apache.org/dist/hadoop/common/hadoop-3.1.1/hadoop-3.1.1.tar.gz
$ mkdir hadoop
$ tar -zxvf hadoop-3.1.1.tar.gz -C ~/hadoop/
$ cd hadoop/hadoop-3.1.1
$ mkdir tmp & mkdir dfs
$ cd dfs
$ mkdir data & mkdir name
fs.defaultFS
hdfs://master:9000/
hadoop.tmp.dir
/home/hadoop/hadoop/hadoop-3.1.1/tmp/
dfs.namenode.name.dir
/home/hadoop/hadoop/hadoop-3.1.1/dfs/name
dfs.datanode.data.dir
/home/hadoop/hadoop/hadoop-3.1.1/dfs/data
dfs.http.address
0.0.0.0:50070
dfs.namenode.secondary.http-address
master:9001
dfs.webhdfs.enabled
true
yarn.resourcemanager.hostname
master
yarn.resourcemanager.webapp.address
master:8088
yarn.nodemanager.aux-services
mapreduce_shuffle
# The java implementation to use. By default, this environment
# variable is REQUIRED on ALL platforms except OS X!
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.191.b12-0.el7_5.x86_64/jre
slave1
slave2
다음은 / etc / profile. d 에 두 개의 스 크 립 트
/.ssh/authorized_keys
와 jdk-1.8.sh
를 새로 만 듭 니 다.# !/bin/sh
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.191.b12-0.el7_5.x86_64
export JRE_HOME=${JAVA_HOME}/jre
export PATH=${JRE_HOME}/bin:$PATH
( java $JAVA_HOME/jre/bin , PATH $JAVA_HOME $JRE_HOME)
#!/bin/sh
export HADOOP_HOME="/home/hadoop/hadoop/hadoop-3.1.1"
export PATH="$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH"
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop
$ source /etc/profile
이렇게 하면 서버 가 시 작 될 때마다 이 두 스 크 립 트 를 자동 으로 실행 하고 관련 환경 변 수 를 설정 합 니 다. $ hdfs namenode -format
$ start-all.sh
을 시작 하면 namenode 에서 jps 명령 을 실행 하면 4 개의 프로 세 스 가 표 시 됩 니 다. $ jps
11270 SecondaryNameNode
26747 Jps
11052 NameNode
11487 ResourceManager
datanode 에서 jps 명령 을 실행 하면 3 개의 프로 세 스 가 표 시 됩 니 다. $ jps
18468 DataNode
23029 Jps
18605 NodeManager
namenode 네트워크 에 접근 하 는 8088 포트, Active Nodes 는 2 로 표 시 됩 니 다.namenode 네트워크 의 50070 포트 에 접근 하여 완료 하 였 습 니 다.namenode 나 datanode 가 시작 할 때 문제 가 발생 하면 해당 하 는 기 계 를 사용 하여 hadop 디 렉 터 리 에 있 는 logs 폴 더 에 들 어가 로그 정 보 를 보고 로그 정보 에 따라 문 제 를 해결 합 니 다.
질문 하나 주의:
만약 당신 이 여러 번
hadoop-3.1.1.sh
을 실행 했다 면, datanode 가 성공 적 으로 시작 되 지 못 하 는 상황 이 발생 할 것 입 니 다. 이때 50070 페이지 의 Live Nodes 는 0, 8088 페이지 는 2 입 니 다.이 명령 은 hadop 디 렉 터 리 아래
hdfs namenode -format
의 데 이 터 를 비 웠 지만 datanode 에 대해 서 는 없 었 기 때문에 버 전이 번호 에 맞지 않 았 습 니 다. 해결 방법 은 datanode 의 dfs/data
데 이 터 를 삭제 하고 다시 시작 하 는 것 입 니 다.namenode 의 format 명령 을 마음대로 실행 하지 마 십시오.
이 내용에 흥미가 있습니까?
현재 기사가 여러분의 문제를 해결하지 못하는 경우 AI 엔진은 머신러닝 분석(스마트 모델이 방금 만들어져 부정확한 경우가 있을 수 있음)을 통해 가장 유사한 기사를 추천합니다:
spark 의 2: 원리 소개Google Map/Reduce 를 바탕 으로 이 루어 진 Hadoop 은 개발 자 에 게 map, reduce 원 어 를 제공 하여 병렬 일괄 처리 프로그램 을 매우 간단 하고 아름 답 게 만 들 었 습 니 다.S...
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
CC BY-SA 2.5, CC BY-SA 3.0 및 CC BY-SA 4.0에 따라 라이센스가 부여됩니다.