spark 노트(1)-Spark Context 와 자바 Spark Context 가 서로 전환 합 니 다.
1098 단어 spark자바SparkContext
spark 2.0 에서 공식 추천 Spark 의 모든 기능 의 입구 점 은
SparkSession
류 로 자바 개발 자 에 게 는 SparkSession 에서 자바 Spark Context 를 얻 기 가 쉽 지 않다.2.0 이전 자바 스파크 Context 작성 방법:
SparkConf sparkConf = new SparkConf().setAppName("spark").setMaster("local[*]");
JavaSparkContext sc = new JavaSparkContext(sparkConf);
2.0 버 전 이후 추천 쓰 는 방법:
SparkSession spark = SparkSession
.builder()
.appName("Java Spark SQL basic example")
.config("spark.some.config.option", "some-value")
.getOrCreate();
SparkSession spark = SparkSession
.builder()
.appName("Java Spark SQL basic example")
.config("spark.some.config.option", "some-value")
.getOrCreate();
// sparkContext JavaSparkContext
JavaSparkContext sc = JavaSparkContext.fromSparkContext(spark.sparkContext());
// JavaSparkContext SparkContext
SparkContext sparkContext = JavaSparkContext.toSparkContext(sc);
이 내용에 흥미가 있습니까?
현재 기사가 여러분의 문제를 해결하지 못하는 경우 AI 엔진은 머신러닝 분석(스마트 모델이 방금 만들어져 부정확한 경우가 있을 수 있음)을 통해 가장 유사한 기사를 추천합니다:
Spark 팁: 컴퓨팅 집약적인 작업을 위해 병합 후 셔플 파티션 비활성화작은 입력에서 UDAF(사용자 정의 집계 함수) 내에서 컴퓨팅 집약적인 작업을 수행할 때 spark.sql.adaptive.coalescePartitions.enabled를 false로 설정합니다. Apache Sp...
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
CC BY-SA 2.5, CC BY-SA 3.0 및 CC BY-SA 4.0에 따라 라이센스가 부여됩니다.