spark와hive 결합 실천

631 단어 spark
위에서 말했듯이spark를 구축하려면spark가hive에 접근하는 데이터가 필요합니다.
Hive 설치 버전 0.13
mysql 데이터베이스를 만듭니다.
hive/conf/hive-site를 설정합니다.xml 설정 메타데이터는 mysql에 저장됩니다.
Hive에서 테이블을 만듭니다.
데이터를 Hadoop에 저장
hive에서 select * from tableName limit 10을 사용합니다.데이터가 보입니다.
spark-shell을 실행하고 다음 문을 실행합니다.
val hiveContext = new org.apache.spark.sql.hive.HiveContext(sc)
hiveContext.sql("show databases")

프롬프트 오류는 다음과 같습니다(마지막 부분만 캡처).
export SPARK_CLASSPATH=/usr/local/hadoop/share/hadoop/common/lib/hadoop-gpl-compression-0.2.0-dev.jar:/usr/local/spark/lib/mysql-connector-java-5.1.18-bin.jar

좋은 웹페이지 즐겨찾기