SparkConf, spark - submit 및 spark - defaults. conf
SparkConf, spark - submit 및 spark - defaults. conf
# spark.default.parallelism , SparkConf.set("spark.default.parallelism", "100")
SparkConf.set("spark.default.parallelism", "100")
spark-submit: --conf spark.default.parallelism=50
spark-defaults.conf: spark.default.parallelism 10
비록 SparkConf 설정 속성의 우선 순위 가 가장 높다 고 말 하지만, 때때로 우 리 는 코드 에서 일부 설정 속성 을 하 드 코딩 하 는 것 을 원 하지 않 을 수도 있 습 니 다. 그렇지 않 으 면 매번 파 라 메 터 를 수정 한 후에 코드 에서 수정 한 다음 에 응용 프로그램 을 다시 포장 하고 생산 기계 에 배치 해 야 합 니 다. 매우 귀 찮 습 니 다.
그래서 보통 spark - submit 설정 속성 을 사용 합 니 다.
val sc = new SparkContext(new SparkConf())
, 그리고 spark - submit 스 크 립 트 에서 각종 속성의 값 을 설정 할 수 있 습 니 다. 예 를 들 어 ./bin/spark-submit \
--name "My app" \
--master local[4] \
--conf spark.shuffle.spill=false \
--conf "spark.executor.extraJavaOptions=-XX:+PrintGCDetails -XX:+PrintGCTimeStamps" \
myApp.jar
spark. shuffle. spill, 코드 에 있 으 면 SparkConf.set("spark.shuffle.spill", "false")
설정 할 수 있 습 니 다. 이때 spark - submit 에 설정 되 어 있 습 니 다. 코드 를 변경 하지 않 아 도 속성 을 변경 할 수 있 습 니 다. 매우 편리 합 니 다. 특히 spark 프로그램의 조정 이 특히 편리 합 니 다.spark 속성 설정 방식
shuffle reduce read
spark 1.3.0: spark.reducer.maxMbInFlight
spark 1.5.0: spark.reducer.maxSizeInFlight
이 내용에 흥미가 있습니까?
현재 기사가 여러분의 문제를 해결하지 못하는 경우 AI 엔진은 머신러닝 분석(스마트 모델이 방금 만들어져 부정확한 경우가 있을 수 있음)을 통해 가장 유사한 기사를 추천합니다:
spark 의 2: 원리 소개Google Map/Reduce 를 바탕 으로 이 루어 진 Hadoop 은 개발 자 에 게 map, reduce 원 어 를 제공 하여 병렬 일괄 처리 프로그램 을 매우 간단 하고 아름 답 게 만 들 었 습 니 다.S...
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
CC BY-SA 2.5, CC BY-SA 3.0 및 CC BY-SA 4.0에 따라 라이센스가 부여됩니다.