Hadoop은 경로 및 링크를 통해 HDFS에 액세스합니다.
host: 9000/user/hadoop 방식으로hdfs에 접근합니다. 이 때core-site를 설정해야 합니다.xml:
fs.defaultFS
hdfs://master.domain.com:9000
위의 설정은 "hadoop fs-ls/user/hadoop"을 사용해서만 hdfs를 볼 수 있습니다. 링크 방식은 hdfs-site를 수정해야 합니다.xml:
dfs.namenode.rpc-address
master.domain.com:9000
이때 서버가 기계실에 놓여 있고 "master.domain.com"도메인 이름이 모든hadoop 집단 기계에 이미namenode의 인터넷 IP를 가리키면 위의 설정은hadoop 집단이 있는 인터넷 기기에서 'hdfs://local
host:9000/user/hadoop"hdfs에 접근합니다. 만약에 기계실 밖에서hadoop의hdfs에 접근해야 한다면hdfs-site.xml에 아래를 추가해야 합니다.
내용:
dfs.namenode.rpc-bind-host
0.0.0.0
그 중host'0.0.0.0'은 위의'dfs.namenode.rpc-address'의 도메인 이름을 교체합니다. 이 때hadoop을 다시 시작하면hadoop은안팎의 두 개의 네트워크 카드의 9000 포트를 감청하다.
이 내용에 흥미가 있습니까?
현재 기사가 여러분의 문제를 해결하지 못하는 경우 AI 엔진은 머신러닝 분석(스마트 모델이 방금 만들어져 부정확한 경우가 있을 수 있음)을 통해 가장 유사한 기사를 추천합니다:
Hadoop은 경로 및 링크를 통해 HDFS에 액세스합니다."/user/hadoop"같은 절대 경로를 통해 Hadoop 서버에서 hdfs에 접근할 수 있고 "hdfs://local host: 9000/user/hadoop 방식으로hdfs에 접근합니다. 이 때core-site...
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
CC BY-SA 2.5, CC BY-SA 3.0 및 CC BY-SA 4.0에 따라 라이센스가 부여됩니다.