AWS 볼륨 변경 및 반영
개요
게시 대로입니다.
가끔 밖에 하지 않는 탓에 매회 하는 방법 조사하는 하메가 되므로, 비망으로서 순서와 정리해 둡니다.
결론
htps : // / cs. 아 ws. 아마존. 이 m / 그럼 _ jp / 아 W 세 C2 / 아 st / 우세 r 굿 데 / 레코 g에 어-에 x 팬 데 d ゔ ぅ 메 ぃ 無 x. HTML
에 실려있는대로 할 수 있습니다.
절차
콘솔 측에서 작업
언젠가는 AWS 콘솔에서 볼륨을 변경할 수 있었습니다.
늘리는 분에는 특히 데이터 사라지거나 같은 문제가 되지 않기 때문에, 갓 끓인 커피에 우유를 붓는 정도의 기분으로 포치 밀어줍니다.
CLI 측에서 작업
EC2에 로그인하여 작업합니다.
# 状況確認
$ df -hT
ファイルシス タイプ サイズ 使用 残り 使用% マウント位置
/dev/xvda1 xfs 16G 12G 4.3G 74% /
tmpfs tmpfs 395M 0 395M 0% /run/user/1000
$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
xvda 202:0 0 32G 0 disk # 32GBに反映されてる
└─xvda1 202:1 0 16G 0 part /
# 実際に拡張する
$ sudo growpart /dev/xvda 1
CHANGED: partition=1 start=4096 old: size=33550303 end=33554399 new: size=67104735 end=67108831
$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
xvda 202:0 0 32G 0 disk
└─xvda1 202:1 0 32G 0 part / # 反映された
$ df -hT
ファイルシス タイプ サイズ 使用 残り 使用% マウント位置
/dev/xvda1 xfs 16G 12G 4.3G 74% / #こっちはまだ
$ sudo xfs_growfs /dev/xvda1
meta-data=/dev/xvda1 isize=512 agcount=9, agsize=524159 blks
= sectsz=512 attr=2, projid32bit=1
= crc=1 finobt=1 spinodes=0
data = bsize=4096 blocks=4193787, imaxpct=25
= sunit=0 swidth=0 blks
naming =version 2 bsize=4096 ascii-ci=0 ftype=1
log =internal bsize=4096 blocks=2560, version=2
= sectsz=512 sunit=0 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
data blocks changed from 4193787 to 8388091
$ df -hT
ファイルシス タイプ サイズ 使用 残り 使用% マウント位置
/dev/xvda1 xfs 32G 12G 21G 37% / # OK!
덧붙여서, grawpart [device] [number]
의 [number]
부분에는, 파티션의 번호를 지정합니다.
이번은 /dev/xvda1
가 대상이었으므로, 1 을 지정하고 있습니다.
Reference
이 문제에 관하여(AWS 볼륨 변경 및 반영), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/br_branch/items/ff97e12b9bf609a3b1f4
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
htps : // / cs. 아 ws. 아마존. 이 m / 그럼 _ jp / 아 W 세 C2 / 아 st / 우세 r 굿 데 / 레코 g에 어-에 x 팬 데 d ゔ ぅ 메 ぃ 無 x. HTML
에 실려있는대로 할 수 있습니다.
절차
콘솔 측에서 작업
언젠가는 AWS 콘솔에서 볼륨을 변경할 수 있었습니다.
늘리는 분에는 특히 데이터 사라지거나 같은 문제가 되지 않기 때문에, 갓 끓인 커피에 우유를 붓는 정도의 기분으로 포치 밀어줍니다.
CLI 측에서 작업
EC2에 로그인하여 작업합니다.
# 状況確認
$ df -hT
ファイルシス タイプ サイズ 使用 残り 使用% マウント位置
/dev/xvda1 xfs 16G 12G 4.3G 74% /
tmpfs tmpfs 395M 0 395M 0% /run/user/1000
$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
xvda 202:0 0 32G 0 disk # 32GBに反映されてる
└─xvda1 202:1 0 16G 0 part /
# 実際に拡張する
$ sudo growpart /dev/xvda 1
CHANGED: partition=1 start=4096 old: size=33550303 end=33554399 new: size=67104735 end=67108831
$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
xvda 202:0 0 32G 0 disk
└─xvda1 202:1 0 32G 0 part / # 反映された
$ df -hT
ファイルシス タイプ サイズ 使用 残り 使用% マウント位置
/dev/xvda1 xfs 16G 12G 4.3G 74% / #こっちはまだ
$ sudo xfs_growfs /dev/xvda1
meta-data=/dev/xvda1 isize=512 agcount=9, agsize=524159 blks
= sectsz=512 attr=2, projid32bit=1
= crc=1 finobt=1 spinodes=0
data = bsize=4096 blocks=4193787, imaxpct=25
= sunit=0 swidth=0 blks
naming =version 2 bsize=4096 ascii-ci=0 ftype=1
log =internal bsize=4096 blocks=2560, version=2
= sectsz=512 sunit=0 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
data blocks changed from 4193787 to 8388091
$ df -hT
ファイルシス タイプ サイズ 使用 残り 使用% マウント位置
/dev/xvda1 xfs 32G 12G 21G 37% / # OK!
덧붙여서, grawpart [device] [number]
의 [number]
부분에는, 파티션의 번호를 지정합니다.
이번은 /dev/xvda1
가 대상이었으므로, 1 을 지정하고 있습니다.
Reference
이 문제에 관하여(AWS 볼륨 변경 및 반영), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/br_branch/items/ff97e12b9bf609a3b1f4
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
# 状況確認
$ df -hT
ファイルシス タイプ サイズ 使用 残り 使用% マウント位置
/dev/xvda1 xfs 16G 12G 4.3G 74% /
tmpfs tmpfs 395M 0 395M 0% /run/user/1000
$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
xvda 202:0 0 32G 0 disk # 32GBに反映されてる
└─xvda1 202:1 0 16G 0 part /
# 実際に拡張する
$ sudo growpart /dev/xvda 1
CHANGED: partition=1 start=4096 old: size=33550303 end=33554399 new: size=67104735 end=67108831
$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
xvda 202:0 0 32G 0 disk
└─xvda1 202:1 0 32G 0 part / # 反映された
$ df -hT
ファイルシス タイプ サイズ 使用 残り 使用% マウント位置
/dev/xvda1 xfs 16G 12G 4.3G 74% / #こっちはまだ
$ sudo xfs_growfs /dev/xvda1
meta-data=/dev/xvda1 isize=512 agcount=9, agsize=524159 blks
= sectsz=512 attr=2, projid32bit=1
= crc=1 finobt=1 spinodes=0
data = bsize=4096 blocks=4193787, imaxpct=25
= sunit=0 swidth=0 blks
naming =version 2 bsize=4096 ascii-ci=0 ftype=1
log =internal bsize=4096 blocks=2560, version=2
= sectsz=512 sunit=0 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
data blocks changed from 4193787 to 8388091
$ df -hT
ファイルシス タイプ サイズ 使用 残り 使用% マウント位置
/dev/xvda1 xfs 32G 12G 21G 37% / # OK!
Reference
이 문제에 관하여(AWS 볼륨 변경 및 반영), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/br_branch/items/ff97e12b9bf609a3b1f4텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)