17,spark에서 s3로 파일 쓰기 (로컬 실행)
7796 단어 aws
1,spark에서 s3에 파일 쓰기:
1 ,pom.xml :
다운로드할 때랑 일치해요.
2, scala-spark 코드:
package com.scalaDemo
import org.apache.spark.rdd.RDD
import org.apache.spark.sql.SparkSession
object SparkScalaTest {
def main(args: Array[String]): Unit = {
val spark = SparkSession.builder()
.master("local[*]")
.config("spark.eventLog.enabled", "false")
.config("spark.driver.memory", "2g")
.config("spark.executor.memory", "2g")
.appName("SparkDemoFromS3")
.getOrCreate()
spark.sparkContext.hadoopConfiguration.set("fs.s3a.access.key", "zhanghao")
spark.sparkContext.hadoopConfiguration.set("fs.s3a.secret.key", "mima")
spark.sparkContext.hadoopConfiguration.set("fs.s3a.endpoint", "s3.cn-northwest-1.amazonaws.com.cn")
val seq = List(("American Person", List("Tom", "Jim")), ("China Person", List("LiLei", "HanMeiMei")), ("Color Type", List("Red", "Blue")))
val rdd1 = spark.sparkContext.parallelize(seq)
rdd1.saveAsTextFile("s3a://demo02/test/mysparkRes.txt")
spark.close()
}
}
3, 두 번째 사례:
package com.scalaDemo
import org.apache.spark.sql.SparkSession
object SparkScalaTest {
def main(args: Array[String]): Unit = {
val spark = SparkSession.builder()
.master("local[*]")
.config("spark.eventLog.enabled", "false")
.config("spark.driver.memory", "2g")
.config("spark.executor.memory", "2g")
.appName("SparkDemoFromS3")
.getOrCreate()
spark.sparkContext.hadoopConfiguration.set("fs.s3a.access.key", "zh")
spark.sparkContext.hadoopConfiguration.set("fs.s3a.secret.key", "mm")
spark.sparkContext.hadoopConfiguration.set("fs.s3a.endpoint", "s3.cn-northwest-1.amazonaws.com.cn")
val seq = List(("a",1),("b",2))
val rdd1 = spark.sparkContext.parallelize(seq,1)
rdd1.saveAsTextFile("s3a://demo02/test/mysparkRes02.txt")
spark.close()
}
}
이 내용에 흥미가 있습니까?
현재 기사가 여러분의 문제를 해결하지 못하는 경우 AI 엔진은 머신러닝 분석(스마트 모델이 방금 만들어져 부정확한 경우가 있을 수 있음)을 통해 가장 유사한 기사를 추천합니다:
Grafana 및 Prometheus로 AWS EKS 모니터링
지난주 블로그에서 Prometheus 및 Grafana를 사용하여 AKS(Azure Kubernetes Service)를 모니터링하는 방법과 모니터링 및 관찰 가능성을 구현하려는 이유에 대한 이론을 배웠습니다.
이 ...
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
CC BY-SA 2.5, CC BY-SA 3.0 및 CC BY-SA 4.0에 따라 라이센스가 부여됩니다.
package com.scalaDemo
import org.apache.spark.rdd.RDD
import org.apache.spark.sql.SparkSession
object SparkScalaTest {
def main(args: Array[String]): Unit = {
val spark = SparkSession.builder()
.master("local[*]")
.config("spark.eventLog.enabled", "false")
.config("spark.driver.memory", "2g")
.config("spark.executor.memory", "2g")
.appName("SparkDemoFromS3")
.getOrCreate()
spark.sparkContext.hadoopConfiguration.set("fs.s3a.access.key", "zhanghao")
spark.sparkContext.hadoopConfiguration.set("fs.s3a.secret.key", "mima")
spark.sparkContext.hadoopConfiguration.set("fs.s3a.endpoint", "s3.cn-northwest-1.amazonaws.com.cn")
val seq = List(("American Person", List("Tom", "Jim")), ("China Person", List("LiLei", "HanMeiMei")), ("Color Type", List("Red", "Blue")))
val rdd1 = spark.sparkContext.parallelize(seq)
rdd1.saveAsTextFile("s3a://demo02/test/mysparkRes.txt")
spark.close()
}
}
package com.scalaDemo
import org.apache.spark.sql.SparkSession
object SparkScalaTest {
def main(args: Array[String]): Unit = {
val spark = SparkSession.builder()
.master("local[*]")
.config("spark.eventLog.enabled", "false")
.config("spark.driver.memory", "2g")
.config("spark.executor.memory", "2g")
.appName("SparkDemoFromS3")
.getOrCreate()
spark.sparkContext.hadoopConfiguration.set("fs.s3a.access.key", "zh")
spark.sparkContext.hadoopConfiguration.set("fs.s3a.secret.key", "mm")
spark.sparkContext.hadoopConfiguration.set("fs.s3a.endpoint", "s3.cn-northwest-1.amazonaws.com.cn")
val seq = List(("a",1),("b",2))
val rdd1 = spark.sparkContext.parallelize(seq,1)
rdd1.saveAsTextFile("s3a://demo02/test/mysparkRes02.txt")
spark.close()
}
}
이 내용에 흥미가 있습니까?
현재 기사가 여러분의 문제를 해결하지 못하는 경우 AI 엔진은 머신러닝 분석(스마트 모델이 방금 만들어져 부정확한 경우가 있을 수 있음)을 통해 가장 유사한 기사를 추천합니다:
Grafana 및 Prometheus로 AWS EKS 모니터링지난주 블로그에서 Prometheus 및 Grafana를 사용하여 AKS(Azure Kubernetes Service)를 모니터링하는 방법과 모니터링 및 관찰 가능성을 구현하려는 이유에 대한 이론을 배웠습니다. 이 ...
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
CC BY-SA 2.5, CC BY-SA 3.0 및 CC BY-SA 4.0에 따라 라이센스가 부여됩니다.