HDFS 데이터를 MongoDB로 내보내기
2893 단어 Hadoop
이 섹션은 Mongo OutputFormat 클래스를 사용하여 HDFS의 데이터를 MongoDB 문서로 가져옵니다.
준비 작업
1. 부터https://github.com/mongodb/mongo-hadoop코드를 다운로드하고, Mongo Hadoop Adaptor를 컴파일하고, 컴파일을 직접 다운로드할 수도 있고, 내가 이미 컴파일한 것도 다운로드할 수 있습니다.
2、Mongo Java Driver를 다운로드,https://github.com/mongodb/mongo-java-driver/downloads.
조작 절차
1、준비된 두 개의 Jar 가방을 $HADOP 에 복사HOME/lib에서
2. MapReduce 코드 만들기
import java.io.*;
import org.apache.commons.logging.*;
import org.apache.hadoop.conf.*;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.*;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.input.TextInputFormat;
import org.apache.hadoop.mapreduce.*;
import org.bson.*;
import org.bson.types.ObjectId;
import com.mongodb.hadoop.*;
import com.mongodb.hadoop.util.*;
public class ExportToMongoDBFromHDFS {
private static final Log log =
LogFactory.getLog(ExportToMongoDBFromHDFS.class);
public static class ReadWeblogs extends Mapper{
public void map(Text key, Text value, Context context) throws IOException, InterruptedException{
System.out.println("Key: " + key);
System.out.println("Value: " + value);
String[] fields = value.toString().split("\t");
String md5 = fields[0];
String url = fields[1];
String date = fields[2];
String time = fields[3];
String ip = fields[4];
BSONObject b = new BasicBSONObject();
b.put("md5", md5);
b.put("url", url);
b.put("date", date);
b.put("time", time);
b.put("ip", ip);
context.write( new ObjectId(), b);
}
}
public static void main(String[] args) throws Exception{
final Configuration conf = new Configuration();
conf.set("mapred.job.tracker", "192.168.11.131:9001");
MongoConfigUtil.setOutputURI(conf,"mongodb://192.168.100.161:27017/test.weblogs");
//MongoConfigUtil.setCreateInputSplits(conf, false);
System.out.println("Configuration: " + conf);
final Job job = new Job(conf, "Export to Mongo");
Path in = new Path("/data/weblogs/weblog_entries.txt");
FileInputFormat.setInputPaths(job, in);
job.setJarByClass(ExportToMongoDBFromHDFS.class);
job.setMapperClass(ReadWeblogs.class);
job.setOutputKeyClass(ObjectId.class);
job.setOutputValueClass(BSONObject.class);
job.setInputFormatClass(TextInputFormat.class);
job.setOutputFormatClass(MongoOutputFormat.class);
job.setNumReduceTasks(0);
System.exit(job.waitForCompletion(true) ? 0 : 1 );
}
}
3. MapReduce 코드를 Jar 패키지로 내보내기
4.MapReduce 프로그램hadoopjar ExportTo MongoDB FromHDFS를 실행합니다.jar ExportToMongoDBFromHDFS
5. 수행 완료
몬godb에서db를 검증합니다.weblogs.count()
결과:3000
이 내용에 흥미가 있습니까?
현재 기사가 여러분의 문제를 해결하지 못하는 경우 AI 엔진은 머신러닝 분석(스마트 모델이 방금 만들어져 부정확한 경우가 있을 수 있음)을 통해 가장 유사한 기사를 추천합니다:
Java 액세스 Hadoop 분산 파일 시스템 HDFS 구성 설명프로파일 m103은hdfs 서비스 주소로 바꿉니다. Java 클라이언트를 이용하여 HDFS의 파일을 액세스하려면 프로필hadoop-0.20.2/conf/core-site를 사용해야 합니다.xml입니다. 처음에 저는 ...
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
CC BY-SA 2.5, CC BY-SA 3.0 및 CC BY-SA 4.0에 따라 라이센스가 부여됩니다.