spark2.0+hadoop2.7.1 단순 배포

hadoop이 정상적으로 배치되었음을 보증합니다. 다음은spark배치에 대해 작은 필기를 하겠습니다. 1. scala-2.11.8.tgz
1) tar-xvzf scala-2.11.8 mv scala-2.11.8/usr 2) 구성 환경 변수를/etc/profile에 다음과 같은 문구를 추가합니다. export SCALAHOME=/usr/scala-2.11.8 export PATH= PATH: SCALA_HOME/bin
2. 스파크 설치
마스터에서 다음과 같은 동작을 한다. 1)tar-xzvfspark-2.0-bin-hadoop2.7.tgz mv spark-2.0.0-bin-hadoop2.7/usr/spark2.0 구성 환경 변수: (/etc/profile) export SPARKHOME=/usr/spark2.0 export PATH= PATH: SPARK_HOME/bin 2) 스파크 환경 (spark 2.0/conf) 에서 스파크-env를 설정합니다.sh 파일: mv spark-env.sh.template spark-env.sh는spark-env에 있습니다.sh에 추가:
    export SCALA_HOME=/usr/scala-2.11.8
    export JAVA_HOME=/usr/java
    export HADOOP_HOME=/usr/hadoop
    export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
    export SPARK_MASTER_IP=master

slaves 파일을 구성하려면:
mv slaves.template slaves s에서 노드 node1 node2 추가
3)/etc/profile 및 spark2.0 폴더를 노드 scp -r spark2로 복사합니다.0 node1:/home/hadoop
2, 실행 실례 실행 spark 자체 로컬피 실례: spark의 bin 디렉터리에 들어가서run-example를 찾습니다.sh, 다음 명령을 입력합니다.
hadoop@master:/usr/spark2.0/bin$ ./run-example org.apache.spark.examples.LocalPi spark://master:7077
Pi is roughly 3.14496

좋은 웹페이지 즐겨찾기