SSH in die glusterfs Maschine, die Sie behalten möchten und tun:
[siddhartha@glusterfs-01-perf ~]$ sudo gluster peer status Number of Peers: 1 Hostname: 10.240.0.123 Port: 24007 Uuid: 03747753-a2cc-47dc-8989-62203a7d31cd State: Peer in Cluster (Connected)
Dies zeigt uns unseren anderen Kollegen, den wir loswerden möchten.
Um dies zu lösen, versuchen Sie Folgendes:
sudo gluster peer detach 10.240.0.123
Sie könnten scheitern mit:
peer detach: failed: Brick(s) with the peer 10.240.0.123 exist in cluster
Wir müssen zuerst den Ziegel loswerden:
[siddhartha@glusterfs-01-perf ~]$ sudo gluster volume info Volume Name: glusterfs Type: Replicate Volume ID: 563f8593-4592-430f-9f0b-c9472c12570b Status: Started Number of Bricks: 1 x 2 = 2 Transport-type: tcp Bricks: Brick1: 10.240.0.122:/mnt/storage/glusterfs Brick2: 10.240.0.123:/mnt/storage/glusterfs
So entfernen Sie Brick2:
[siddhartha@glusterfs-01-perf ~]$ sudo gluster volume remove-brick glusterfs 10.240.0.123:/mnt/storage/glusterfs
Dies kann fehlschlagen mit:
Removing brick(s) can result in data loss. Do you want to Continue? (y/n) y volume remove-brick commit force: failed: Removing bricks from replicate configuration is not allowed without reducing replica count explicitly.
Unsere Replikation ist auf 2 festgelegt und muss explizit auf 1 reduziert werden. Fügen Sie replica 1
dem vorherigen Befehl daher ein Flag hinzu:
[siddhartha@glusterfs-01-perf ~]$ sudo gluster volume remove-brick glusterfs replica 1 10.240.0.123:/mnt/storage/glusterfs Removing brick(s) can result in data loss. Do you want to Continue? (y/n) y volume remove-brick commit force: success
Das sollte den Trick tun:
[siddhartha@glusterfs-01-perf ~]$ sudo gluster volume info glusterfs Volume Name: glusterfs Type: Distribute Volume ID: 563f8593-4592-430f-9f0b-c9472c12570b Status: Started Number of Bricks: 1 Transport-type: tcp Bricks: Brick1: 10.240.0.122:/mnt/storage/glusterfs
Sie können wahrscheinlich den anderen Rechner beenden.