ceph mds 구성

2939 단어

1. mds 구성 추가

# vi ceph.conf
[mds.a]
host = hostname

2. mds 메타데이터 서버에 디렉터리 만들기

# mkdir –p /var/lib/ceph/mds/ceph-a

3. bootstrap-mds 클라이언트를 위한 키 만들기

# ceph-authtool --create-keyring /var/lib/ceph/bootstrap-mds/ceph.keyring --gen-key -n client.bootstrap-mds

4.cephauth 라이브러리에bootstrap-mds 클라이언트를 만들고 이전에 만든 키를 추가할 수 있는 권한을 부여합니다

# ceph auth add client.bootstrap-mds mon 'allow profile bootstrap-mds' -i /var/lib/ceph/bootstrap-mds/ceph.keyring

5.ceph auth 라이브러리에mds를 만듭니다.a 사용자, 권한 부여 및 키 만들기, 키 보존 / var /lib /ceph /mds /ceph-a /keyring 파일에

# ceph --name client.bootstrap-mds --keyring /var/lib/ceph/bootstrap-mds/ceph.keyring auth get-or-create mds.a osd 'allow rwx' mds 'allow' mon 'allow profile mds' -o /var/lib/ceph/mds/ceph-a/keyring

6. mds 서비스 프로세스 시작

# service ceph start mds.a
=== mds.a === 
Starting Ceph mds.a on DEV-L0003542...
starting mds.a at :/0
# ceph mds stat # mds 
e4: 1/1/1 up {0=a=up:active}

7. 클러스터 상태 보기

# ceph -s
cluster 1c7ec934-1595-11e5-aa3f-06aed00006d5
health HEALTH_WARN 1360 pgs degraded; 4820 pgs stuck unclean; recovery 62423/138288 objects degraded (45.140%)
monmap e1: 1 mons at {mon1=10.20.15.156:6789/0}, election epoch 2, quorum 0 mon1
mdsmap e4: 1/1/1 up {0=a=up:active}
osdmap e143: 7 osds: 7 up, 7 in
pgmap v5095: 4820 pgs, 14 pools, 9919 kB data, 46096 objects
9251 MB used, 150 GB / 159 GB avail
62423/138288 objects degraded (45.140%)
667 active
1360 active+degraded
2793 active+remapped
client io 3058 B/s wr, 5 op/s

7. 클라이언트가cephfs(fuse 방식)를 마운트합니다.

# yum install ceph-fuse –y 
# mkdir /mycephfs
# ceph-fuse -m 10.20.15.156:6789 ~/mycephfs
# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/Volgroup00-LV_root 16G 3.9G 11G 27% /
tmpfs 1.9G 0 1.9G 0% /dev/shm
/dev/vda1 194M 34M 150M 19% /boot
/dev/sda 100G 1.9G 99G 2% /mnt/share
/dev/vdb 10G 1.3G 8.8G 13% /var/lib/ceph/osd/ceph-0
/dev/vdc 10G 1.2G 8.8G 12% /var/lib/ceph/osd/ceph-1
/dev/vdd 10G 1.2G 8.9G 12% /var/lib/ceph/osd/ceph-5
/dev/sda 100G 1.9G 99G 2% /var/lib/ceph/osd/ceph-6
ceph-fuse 160G 9.1G 151G 6% /root/mycephfs

8. 코어 직접 마운트 (코어는cephmodul 높은 버전이 필요합니다)

# mount -t ceph 10.20.15.156:6789://mycephfs -v -oname=admin,secretfile=/etc/ceph/ceph.client.admin.keyring

9. 비고

cephfs metadata pool 
# rados ls -p metadata609.00000000mds0_sessionmap608.00000000601.00000000602.00000000mds0_inotable1.00000000.inode200.00000000604.00000000605.00000000mds_anchortablemds_snaptable600.00000000603.00000000100.00000000200.00000001606.00000000607.00000000100.00000000.inode1.00000000


좋은 웹페이지 즐겨찾기