sparkstream 수신kafka 정보
2988 단어 spark
Error:scalac: bad symbolic reference. A signature in KafkaUtils.class refers to term serializer
in package kafka which is not available.
It may be completely missing from the current classpath, or the version on
the classpath might be incompatible with the version used when compiling KafkaUtils.class.
다음은 spark 읽기 kafka:jar 가방 사용:kafka_2.10-0.8.2.0-kafka-1.4.0.jar(위 오류는 이 가방이 적음)spark-streaming-kafka_2.10-1.5.0-cdh5.5.2.jar kafka-clients-0.8.2.0-kafka-1.4.0.jar spark-assembly-1.5.1-hadoop2.6.0.jar datanucleus-rdbms-3.2.9.jar datanucleus-core-3.2.10.jar spark-1.5.1-yarn-shuffle.jar datanucleus-api-jdo-3.2.6.jar zkclient-0.3.jar zookeeper-3.4.5-cdh5.5.2.jar metrics-core-2.2.0.jar
예:
object SparkInKafka extends App{
val zkQuorum = "master:2181"
val group = "1"
val topics = "demo"
val numThreads = 2
val sparkConf = new SparkConf().setAppName("KafkaWordCount").setMaster("local[2]")
val ssc = new StreamingContext(sparkConf, Seconds(20))
ssc.checkpoint("checkpoint")
val topicpMap = Map(
"demo" -> 2
)
val lines = KafkaUtils.createStream(ssc, zkQuorum, group, topicpMap)
lines.saveAsTextFiles("/datafile/steam/log")
ssc.start()
ssc.awaitTermination()
}
간단하게 요약하자면 실수를 당하면 포기하지 말고 많은 시도를 하고 자료를 많이 찾으면 무심코 해결된다.
이 내용에 흥미가 있습니까?
현재 기사가 여러분의 문제를 해결하지 못하는 경우 AI 엔진은 머신러닝 분석(스마트 모델이 방금 만들어져 부정확한 경우가 있을 수 있음)을 통해 가장 유사한 기사를 추천합니다:
Spark 팁: 컴퓨팅 집약적인 작업을 위해 병합 후 셔플 파티션 비활성화작은 입력에서 UDAF(사용자 정의 집계 함수) 내에서 컴퓨팅 집약적인 작업을 수행할 때 spark.sql.adaptive.coalescePartitions.enabled를 false로 설정합니다. Apache Sp...
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
CC BY-SA 2.5, CC BY-SA 3.0 및 CC BY-SA 4.0에 따라 라이센스가 부여됩니다.