sparkstream 수신kafka 정보
2988 단어 spark
Error:scalac: bad symbolic reference. A signature in KafkaUtils.class refers to term serializer
in package kafka which is not available.
It may be completely missing from the current classpath, or the version on
the classpath might be incompatible with the version used when compiling KafkaUtils.class.
다음은 spark 읽기 kafka:jar 가방 사용:kafka_2.10-0.8.2.0-kafka-1.4.0.jar(위 오류는 이 가방이 적음)spark-streaming-kafka_2.10-1.5.0-cdh5.5.2.jar kafka-clients-0.8.2.0-kafka-1.4.0.jar spark-assembly-1.5.1-hadoop2.6.0.jar datanucleus-rdbms-3.2.9.jar datanucleus-core-3.2.10.jar spark-1.5.1-yarn-shuffle.jar datanucleus-api-jdo-3.2.6.jar zkclient-0.3.jar zookeeper-3.4.5-cdh5.5.2.jar metrics-core-2.2.0.jar
예:
object SparkInKafka extends App{
val zkQuorum = "master:2181"
val group = "1"
val topics = "demo"
val numThreads = 2
val sparkConf = new SparkConf().setAppName("KafkaWordCount").setMaster("local[2]")
val ssc = new StreamingContext(sparkConf, Seconds(20))
ssc.checkpoint("checkpoint")
val topicpMap = Map(
"demo" -> 2
)
val lines = KafkaUtils.createStream(ssc, zkQuorum, group, topicpMap)
lines.saveAsTextFiles("/datafile/steam/log")
ssc.start()
ssc.awaitTermination()
}
간단하게 요약하자면 실수를 당하면 포기하지 말고 많은 시도를 하고 자료를 많이 찾으면 무심코 해결된다.
이 내용에 흥미가 있습니까?
현재 기사가 여러분의 문제를 해결하지 못하는 경우 AI 엔진은 머신러닝 분석(스마트 모델이 방금 만들어져 부정확한 경우가 있을 수 있음)을 통해 가장 유사한 기사를 추천합니다:
Spark 프로그래밍 기본 사항(Python 버전)참조 웹사이트: Hadoop 환경이 있어야 합니다. 내 다른 블로그를 읽을 수 있습니다. 2.Spark 환경 변수 파일 수정 spark env SH 파일(vi ./conf/spark-env.sh)을 편집하고 첫 번째...
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
CC BY-SA 2.5, CC BY-SA 3.0 및 CC BY-SA 4.0에 따라 라이센스가 부여됩니다.