반응형
Ceph에서 제공하는 Admistration Tool의 대표적인 CLI 명령어 예시 입니다
OSD 관련 명령어
1. ceph osd tree
- 설명: OSD의 상태와 위치를 나타내는 트리를 출력합니다.
- 실행 결과 예시:
ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY
-1 52 root default
-2 26 host ceph-node1
0 8 osd.0 up 1.00000 1.00000
1 8 osd.1 up 1.00000 1.00000
2 8 osd.2 up 1.00000 1.00000
-3 26 host ceph-node2
3 8 osd.3 up 1.00000 1.00000
4 8 osd.4 up 1.00000 1.00000
5 8 osd.5 up 1.00000 1.00000
- 해설: 위의 결과에서, osd.0, osd.1, osd.2는 ceph-node1 호스트에 위치하며, 모두 UP 상태입니다. 마찬가지로, osd.3, osd.4, osd.5는 ceph-node2 호스트에 위치하며, 모두 UP 상태입니다.
2. ceph osd status
- 설명: OSD의 상태를 출력합니다.
- 실행 결과 예시:
osd.0 up {state=1, pg_id=0.0f28, ...} 1.000000 weight
osd.1 up {state=1, pg_id=0.0f2a, ...} 1.000000 weight
osd.2 up {state=1, pg_id=0.0f2c, ...} 1.000000 weight
osd.3 up {state=1, pg_id=0.0f2e, ...} 1.000000 weight
osd.4 up {state=1, pg_id=0.0f30, ...} 1.000000 weight
osd.5 up {state=1, pg_id=0.0f32, ...} 1.000000 weight
- 해설: ceph osd tree 명령어와 유사하게, OSD의 상태를 출력합니다. 위의 결과에서, osd.0, osd.1, osd.2, osd.3, osd.4, osd.5는 모두 UP 상태입니다.
Erasure Coding 관련 명령어
1. ceph osd erasure-code-profile ls
- 설명: 사용 가능한 모든 erasure coding 프로파일을 나열합니다.
- 실행 결과 예시:
default
- 해설: 위의 결과에서, default는 현재 사용 가능한 유일한 erasure coding 프로파일입니다.
2. ceph osd erasure-code-profile get {profile_name}
- 설명: 지정된 erasure coding 프로파일의 상세 정보를 출력합니다.
- 실행 결과 예시:
plugin=jerasure technique=reed_sol_van
k=2 m=1 crush-failure-domain=osd
- 해설: 위의 결과에서, jerasure 플러그인을 사용하며 reed_sol_van 기술을 적용하는 default 프로파일에 대한 상세 정보가 출력됩니다.
PG 관련 명령어
1. ceph pg dump
- 설명: 현재 클러스터의 모든 PG (Placement Group) 정보를 출력합니다.
- 실행 결과 예시:
...
version: 5022
stamp: 2022-12-01T12:24:45.712021Z
created: 2780.82288
last_epoch_started: 438
last_epoch_clean: 437
...
- 해설: 위의 결과에서, PG의 현재 버전, 생성 시간, 마지막 epoch 시작 시간 등의 정보가 포함됩니다.
2. ceph pg ls
- 설명: 현재 클러스터의 모든 PG ID를 나열합니다.
- 실행 결과 예시:
0.0
0.1
0.2
...
- 해설: 위의 결과에서, 0.0, 0.1, 0.2 등은 현재 클러스터의 모든 PG ID를 나타냅니다.
Rebalancing 관련 명령어
1. ceph osd reweight {osd_id} {new_weight}
- 설명: 지정된 OSD의 가중치를 조정하여 데이터의 분산을 재조정합니다.
- 실행 결과 예시:
reweighted item id 0 name 'osd.0' weight 0.5 to 0.3
- 해설: 위의 결과에서, osd.0 OSD의 가중치가 0.5에서 0.3으로 조정됨을 알 수 있습니다.
2. ceph osd crush reweight-all
- 설명: 클러스터 전체 OSD의 가중치를 조정하여 데이터의 분산을 재조정합니다.
- 실행 결과 예시:
crush map updated
- 해설: 위의 결과에서, 클러스터 전체 OSD의 가중치가 조정되었음을 나타내는 메시지입니다.
위의 Ceph Administration Tool CLI 명령어 예시는 일반적으로 사용되는 몇 가지 명령어만을 포함하며, 더 많은 명령어가 있습니다. 더 자세한 내용은 Ceph 공식 문서를 참조하시기 바랍니다.
반응형
'Life with AI > Research with AI' 카테고리의 다른 글
[Ceph Storage] CLI 명령어를 사용하여 rebalancing 및 데이터 복구 예시 (0) | 2023.03.06 |
---|---|
[Ceph Storage] Rebalancing 기능 (0) | 2023.02.25 |
[Ceph Storage] Erasure Coding 알아보기 (0) | 2023.02.24 |
[Ceph Storage] CRUSH 알고리즘과 CRUSH Map (0) | 2023.02.23 |
[Ceph Storage] Failover의 종류와 방법 (0) | 2023.02.22 |
댓글