python hdfs 데이터 읽 기
from hdfs.client import Client
class Process_Data_Hdfs():
def __init__(self):
self.client = Client("http://hadoop1:50070")
self.filename = "/user/hdfs/read.txt"
hdfs 파일 내용 을 읽 고 줄 마다 배열 에 저장 하여 되 돌려 줍 니 다.
def read_hdfs_file(self):
# with client.read('samples.csv', encoding='utf-8', delimiter='
') as reader:
# for line in reader:
# pass
lines = []
with self.client.read(self.filename, encoding='utf-8', delimiter='
') as reader:
for line in reader:
# pass
# print line.strip()
lines.append(line.strip())
return lines
\ # 디 렉 터 리 만 들 기
def mkdirs(self, hdfs_path):
self.client.makedirs(hdfs_path)
hdfs 파일 삭제
def delete_hdfs_file(self,hdfs_path):
self.client.delete(hdfs_path)
hdfs 에 파일 업로드
def put_to_hdfs(self, local_path, hdfs_path):
self.client.upload(hdfs_path, local_path, cleanup=True)
hdfs 에서 로 컬 로 파일 가 져 오기
def get_from_hdfs(self, hdfs_path, local_path):
self.client.download(hdfs_path, local_path, overwrite=False)
hdfs 파일 에 데이터 추가
def append_to_hdfs(self, hdfs_path, data):
self.client.write(hdfs_path, data, overwrite=False, append=True)
hdfs 파일 에 데 이 터 를 덮어 씁 니 다.
def write_to_hdfs(self, hdfs_path, data):
self.client.write(hdfs_path, data, overwrite=True, append=False)
\ # 파일 이동 또는 수정
def move_or_rename(self,hdfs_src_path, hdfs_dst_path):
self.client.rename(hdfs_src_path, hdfs_dst_path)
\ # 디 렉 터 리 에 있 는 파일 을 되 돌려 줍 니 다.
def list(self,hdfs_path):
return self.client.list(hdfs_path, status=False)
더 많은 것 을 알 고 싶다 면, 교 류 를 환영 합 니 다.
이 내용에 흥미가 있습니까?
현재 기사가 여러분의 문제를 해결하지 못하는 경우 AI 엔진은 머신러닝 분석(스마트 모델이 방금 만들어져 부정확한 경우가 있을 수 있음)을 통해 가장 유사한 기사를 추천합니다:
APUE 2 오류 기록14 년 5 월 에 APUE 2 의 신호 처리 장 을 보고 '10.10 alarm 과 pause 함수' 를 보 았 을 때 그 중 하 나 는 '시간 초과 기능 의 read 함수' 였 다.나 는 당시 에 이 코드 를 시...
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
CC BY-SA 2.5, CC BY-SA 3.0 및 CC BY-SA 4.0에 따라 라이센스가 부여됩니다.