Attempting to operate on hdfs namenode as root

2941 단어 빅 데이터
메모: 1, master, slave 는 start - dfs. sh, stop - dfs. sh, start - yarn. sh, stop - yarn. sh 네 개의 파일 을 수정 해 야 합 니 다.
HDFS 포맷 후 dfs 를 시작 하 는 중 다음 과 같은 오류 가 발생 했 습 니 다.
[root@master sbin]# ./start-dfs.sh
Starting namenodes on [master]
ERROR: Attempting to operate on hdfs namenode as root
ERROR: but there is no HDFS_NAMENODE_USER defined. Aborting operation.
Starting datanodes
ERROR: Attempting to operate on hdfs datanode as root
ERROR: but there is no HDFS_DATANODE_USER defined. Aborting operation.
Starting secondary namenodes [slave1]
ERROR: Attempting to operate on hdfs secondarynamenode as root
ERROR: but there is no HDFS_SECONDARYNAMENODE_USER defined. Aborting operation.

어머니, 인형 의 블 로 그 를 만 나 자주 묻 는 질문 이 있 으 니 참고 처리 하 는 김 에 참고 주 소 를 기록 하 세 요.https://blog.csdn.net/u013725455/article/details/70147331
/ hadop / sbin 경로 에서 start - dfs. sh, stop - dfs. sh 두 파일 상단 에 다음 매개 변 수 를 추가 합 니 다.
#!/usr/bin/env bash
HDFS_DATANODE_USER=root
HADOOP_SECURE_DN_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root

그리고 start - yarn. sh, stop - yarn. sh 상단 에 도 다음 과 같이 추가 해 야 합 니 다.
#!/usr/bin/env bash
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root


# Licensed to the Apache Software Foundation (ASF) under one or more

수정 후 다시 시작. / start - dfs. sh, 성공!
[root@master sbin]# ./start-dfs.sh
WARNING: HADOOP_SECURE_DN_USER has been replaced by HDFS_DATANODE_SECURE_USER. Using value of HADOOP_SECURE_DN_USER.
Starting namenodes on [master]
     :  6   3 03:01:37 CST 2018  slave1pts/2  
master: Warning: Permanently added 'master,192.168.43.161' (ECDSA) to the list of known hosts.
Starting datanodes
     :  6   3 04:09:05 CST 2018pts/1  
Starting secondary namenodes [slave1]
     :  6   3 04:09:08 CST 2018pts/1  

좋은 웹페이지 즐겨찾기