l 7.7 설치 배치 4 노드 spark 3.0.0 분포 식 군집 의 상세 한 튜 토리 얼

2349 단어 spark분포 식군집
spark 를 배우 기 위해 가상 컴퓨터 에서 가상 컴퓨터 4 대 를 켜 서 spark 3.0.0 을 설치 합 니 다.
바 텀 hadop 클 러 스 터 가 설치 되 어 있 습 니 다.ol 7.7 설치 배치 4 노드 hadop 3.2.1 분포 식 클 러 스 터 학습 환경참조
우선,해당 설치 패 키 지 를 다운로드http://spark.apache.org/downloads.html

스트레스 를 풀다

[hadoop@master ~]$ sudo tar -zxf spark-3.0.0-bin-without-hadoop.tgz -C /usr/local
[hadoop@master ~]$ cd /usr/local
[hadoop@master /usr/local]$ sudo mv ./spark-3.0.0-bin-without-hadoop/ spark
[hadoop@master /usr/local]$ sudo chown -R hadoop: ./spark
네 개의 노드 에 환경 변 수 를 추가 합 니 다.

export SPARK_HOME=/usr/local/spark
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
spark 설정
spark 디 렉 터 리 의 conf 디 렉 터 리 아래 cp./conf/spark-env.sh.template./conf/spark-env.sh 뒤에 추가

export SPARK_MASTER_IP=192.168.168.11
export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
export SPARK_LOCAL_DIRS=/usr/local/hadoop
export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)
그리고 work 노드,cp./conf/slaves.template./conf/slaves 를 설정 하여 변경 합 니 다.
master
slave1
slave2
slave3
데 드 JAVAHOME,sbin/spark-config.sh 마지막 으로 추가
export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_191
spark 디 렉 터 리 를 다른 노드 로 복사 합 니 다.

sudo scp -r /usr/local/spark/ slave1:/usr/local/
sudo scp -r /usr/local/spark/ slave2:/usr/local/
sudo scp -r /usr/local/spark/ slave3:/usr/local/
sudo chown -R hadoop ./spark/
...
시작 클 러 스 터
hadop 클 러 스 터/usr/local/hadop/sbin/start-all.sh 를 먼저 시작 합 니 다.
그리고 spark 군집 을 시작 합 니 다.

master 8080 포트 모니터링 을 통 해

설치 완료
여기 서 ol 7.7 설치 배치 4 노드 spark 3.0.0 분포 식 클 러 스 터 에 대한 상세 한 튜 토리 얼 을 소개 합 니 다.더 많은 ol 7.7 설치 배치 spark 클 러 스 터 내용 은 우리 의 이전 글 을 검색 하거나 아래 의 관련 글 을 계속 조회 하 시기 바 랍 니 다.앞으로 많은 지원 을 바 랍 니 다!

좋은 웹페이지 즐겨찾기