Hadoop 3.1.2 (Linux 버 전) 환경 구축 기록 2 - Pseudo - Distributed (의사 분산 모드)
위 분포 식 설정 은 주로 etc / hadop 의 설정 파일 입 니 다. 각각 core - site. xml, mapred - site. xml, hdfs - site. xml 입 니 다.
core - site. xml (namenode 설정)
fs.defaultFS
hdfs://localhost:9000
hdfs - site. xml (datanode 설정)
dfs.replication
1
mapred - site. xml (jobtracker / tasktracker 설정)
mapred.job.tracker
localhost:9001
상기 설정 을 완성 한 후 ssh 의 설치 상황 을 검사 하고 비밀 로그 인 면제 방식 으로 설정 하 며 구체 적 인 실현 방식 으로 설정 해 야 합 니 다.
$ ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
$ chmod 0600 ~/.ssh/authorized_keys
상기 절 차 를 마 친 후에 먼저 파일 시스템 을 포맷 하고 구체 적 인 실현 방식 을 해 야 합 니 다.
$ bin/hdfs namenode -format
위 절 차 를 마 친 후 hadop 을 시작 해 야 합 니 다. 이 때 는 sbin 디 렉 터 리 에 있 는 sh 스 크 립 트 를 사용 해 야 합 니 다. 루트 계 정 을 사용 하면 사용 하기 전에 사용 해 야 할 스 크 립 트 를 사용 하기 전에 다음 설정 을 추가 해 야 합 니 다.
HDFS_DATANODE_USER=root HADOOP_SECURE_DN_USER=hdfs HDFS_NAMENODE_USER=root HDFS_SECONDARYNAMENODE_USER=root
예 를 들 어 start - dfs. sh 스 크 립 트 를 사용 하려 면 상기 내용 을 스 크 립 트 에 붙 여 넣 은 다음 에 스 크 립 트 를 직접 실행 할 수 있 습 니 다.
스 크 립 트 를 실행 한 후 시작 하 는 데 몬 을 jps 명령 으로 볼 수 있 습 니 다.
이 내용에 흥미가 있습니까?
현재 기사가 여러분의 문제를 해결하지 못하는 경우 AI 엔진은 머신러닝 분석(스마트 모델이 방금 만들어져 부정확한 경우가 있을 수 있음)을 통해 가장 유사한 기사를 추천합니다:
spark 의 2: 원리 소개Google Map/Reduce 를 바탕 으로 이 루어 진 Hadoop 은 개발 자 에 게 map, reduce 원 어 를 제공 하여 병렬 일괄 처리 프로그램 을 매우 간단 하고 아름 답 게 만 들 었 습 니 다.S...
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
CC BY-SA 2.5, CC BY-SA 3.0 및 CC BY-SA 4.0에 따라 라이센스가 부여됩니다.