eclipse 통합 hadop + spark + hive 로 컬 개발 그림 설명
개발 환경
시스템: windows 7
JDK:jdk1.7
eclipse:Mars.2 Release (4.5.2)
Hadoop:hadoop-2.6.5
Spark:spark-1.6.2-bin-hadoop2.6
Hive:hive-2.1.1
전기 준비
1. 시스템 환경 설정
JDK, Hadoop, Spark 설정 시스템 환경
2. Hadoop 관련 파일
winutils. exe 와 hadop. dll, 다운로드 주소: hadop 2.6.5 중 winutils 와 hadop
위 에 있 는 두 개의 파일 을... \ hadop - 2.6.5 \ bin 디 렉 터 리 아래 에 놓 기;
winutils. exe 를 C: \ Windows \ System 32 디 렉 터 리 에 동시에 놓 기;
3. tmp / hive 디 렉 터 리 새로 만 들 기
응용 프로젝트 디 렉 터 리 에 tmp / hive 디 렉 터 리 를 새로 만 듭 니 다. 제 프로젝트 는 E 디스크 에 설치 되 어 있 기 때문에 E 디스크 에 tmp / hive 디 렉 터 리 를 새로 만 들 수 있 습 니 다.
3. hive 설정
1. Hive 환경
이 시스템 의 Hive 는 원 격 Liux 군집 환경 에 배치 되 어 있 습 니 다.홈 설치 디 렉 터 리 ip 주소: 10.32.19.50: 9083
구체 적 인 Hive 가 Liux 환경 에 배 치 된 것 은 관련 문 서 를 보십시오. 본 고 는 소개 하지 않 습 니 다.
2. Windows 에서 hive - site. xml 파일 설정
	
    
        hive.metastore.warehouse.dir 
        /user/hive/warehouse 
     
	
    
        hive.metastore.local 
        false 
     
	
    
        hive.metastore.uris 
        thrift://10.32.19.50:9083 
     
    
   windows 에서 hive - site. xml 설정
인 스 턴 스 테스트
수요: Hive 데이터 조회, eclipse 정상 표시
1. 인 스 턴 스 공정 구조
인 스 턴 스 엔지니어 링
2. pom 파일
	4.0.0 
	com.lm.hive 
	SparkHive 
	0.0.1-SNAPSHOT 
	jar 
	SparkHive 
	http://maven.apache.org 
	 
    UTF-8 
   
 
    
        
        
            org.apache.spark 
            spark-core_2.10 
            1.6.0 
            
                
                    org.apache.hadoop 
                    hadoop-client 
                 
             
         
        
            org.apache.spark 
            spark-sql_2.10 
            1.6.0 
         
        
            org.apache.spark 
            spark-hive_2.10 
            1.6.0 
         
        
            org.mongodb.spark 
            mongo-spark-connector_2.10 
            1.1.0 
         
        
            org.apache.derby 
            derby 
            10.10.2.0 
         
        
        
            org.apache.hadoop 
            hadoop-client 
            2.6.4 
            
                
                    javax.servlet 
                    * 
                 
             
         
     
    
    
		src/main/java 
		src/main/test 
		
			
				maven-assembly-plugin 
				
					
						jar-with-dependencies 
					 
					
						
							
						  
					 
				 
				
					
						make-assembly 
						package 
						
							single 
						 
					 
				 
			 
			
				org.codehaus.mojo 
				exec-maven-plugin 
				1.2.1 
				
					
						
							exec 
						 
					 
				 
				
					java 
					true 
					false 
					compile 
					
				  
			 
			
				org.apache.maven.plugins 
				maven-compiler-plugin 
				3.1 
				
					 1.7
					1.7 
					true 
				 
			 
		 
	 
 
  3. 테스트 용례 실현
package com.lm.hive.SparkHive;
import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.sql.hive.HiveContext;
/**
 * Spark sql  Hive  
 *
 */
public class App 
{
    public static void main( String[] args ) 
    {
        SparkConf sparkConf = new SparkConf().setAppName("SparkHive").setMaster("local[2]");
        JavaSparkContext sc = new JavaSparkContext(sparkConf);
        
        //    SQLContext,            
        HiveContext hiveContext = new HiveContext(sc);
//        SQLContext sqlContext = new SQLContext(sc);
        //    10   
        hiveContext.sql("select * from bi_ods.owms_m_locator limit 10").show();
        
        sc.stop();
    }
}  4. 테스트 결과 전시
테스트 결과 전시
코드 다운로드 주소: eclispe 통합 hadop + spark + hive 개발 인 스 턴 스 코드
이 내용에 흥미가 있습니까?
현재 기사가 여러분의 문제를 해결하지 못하는 경우 AI 엔진은 머신러닝 분석(스마트 모델이 방금 만들어져 부정확한 경우가 있을 수 있음)을 통해 가장 유사한 기사를 추천합니다:
바이너리 파일cat 또는tail, 터미널 디코딩 시 처리 방법cat으로 바이너리 파일을 보려고 할 때 코드가 엉망이 되어 식은땀이 났다. 웹에서 스크롤된 정보의 처리 방법과alias의 설정을 요약합니다. reset 명령을 사용하여 터미널을 재설정합니다.이렇게 하면 고치지 못하...
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
CC BY-SA 2.5, CC BY-SA 3.0 및 CC BY-SA 4.0에 따라 라이센스가 부여됩니다.