Spark elasticsearch 데이터 읽 기

1360 단어 elasticsearchspark
최근 에 빅 데 이 터 를 만 들 때 사례 를 만 났 다.이전의 일부 데 이 터 는 설정 이 죽 었 다.이제 es 의 데 이 터 를 동적 으로 읽 고 처리 하려 면 elasticsearch 색인 데 이 터 를 읽 는 예 를 썼 습 니 다.
object SparkReadFromES { def main(args: Array[String]): Unit = {
val conf = new SparkConf().setAppName("DecisionTree1").setMaster("local[2]")
//  elasticsearch  
conf.set("cluster.name", "es")
conf.set("es.index.auto.create", "true")
conf.set("es.nodes", "es  IP。   ,  ")
conf.set("es.port", "9200")
val sc = new SparkContext(conf)

/ / 검색 조건 을 설정 합 니 다. 저 는 여기 서 모든 val query: String = s "" {를 조회 합 니 다.
"query" : {
"match_all" : {}

} "/" / 검색 조건 에 따라 색인 과 type 의 데이터 val a = EsSpark. esRDD (sc, "색인 이름 / type", query) val code = a. map (x = > {를 직접 조회 합 니 다.
//     elasticsearch      ,            rdd  。
  val y = x._2.get("cal_rule").getOrElse("110611")
  y
}).filter(_!=null)

} }
spark 와 elasticsearch 의 상호작용 을 할 때 spark 와 elasticsearch 의 maven 의존 도 를 추가 하여 jar 가방 을 직접 다운로드 해 야 합 니 다.
    
        org.elasticsearch
        elasticsearch-spark-20_2.11
        5.4.0
    

좋은 웹페이지 즐겨찾기