it-swarm.com.de

Entfernen der 'mon_allow_pool_delete' config-Option des Pools auf 'true', bevor Sie einen pool1_U (500) zerstören können

Ich führe proxmox aus und versuche, einen Pool zu entfernen, den ich falsch erstellt habe. Dieser Fehler wird jedoch immer wieder angezeigt:

mon_command failed - pool deletion is disabled; you must first set the mon_allow_pool_delete config option to true before you can destroy a pool1_U (500)
OK

Aber:

[email protected]:~# ceph -n mon.0 --show-config | grep mon_allow_pool_delete
mon_allow_pool_delete = true
[email protected]:~# ceph -n mon.1 --show-config | grep mon_allow_pool_delete
mon_allow_pool_delete = true
[email protected]:~# ceph -n mon.2 --show-config | grep mon_allow_pool_delete
mon_allow_pool_delete = true

[email protected]:~# cat /etc/ceph/ceph.conf
[global]
         auth client required = cephx
         auth cluster required = cephx
         auth service required = cephx
         cluster network = 10.0.0.0/24
         filestore xattr use omap = true
         fsid = 41fa3ff6-e751-4ebf-8a76-3f4a445823d2
         keyring = /etc/pve/priv/$cluster.$name.keyring
         osd journal size = 5120
         osd pool default min size = 1
         public network = 10.0.0.0/24
[osd]
         keyring = /var/lib/ceph/osd/ceph-$id/keyring
[mon.0]
         Host = kvm-01
         mon addr = 10.0.0.1:6789
         mon allow pool delete = true

[mon.2]
         Host = kvm-03
         mon addr = 10.0.0.3:6789
         mon allow pool delete = true
[mon.1]
         Host = kvm-02
         mon addr = 10.0.0.2:6789
         mon allow pool delete = true

Das ist also meine volle Konfig. Irgendeine Idee, warum ich meine Pools nicht löschen kann? 

3
Florius

sie müssen tun:

systemctl ceph-mon.target neu starten

Andernfalls können Sie den Server unendlich oft neu starten, und es passiert nichts

2
gonzalo

Ein anderer Ansatz:

ceph tell mon.\* injectargs '--mon-allow-pool-delete=true'
ceph osd pool rm test-pool test-pool --yes-i-really-really-mean-it
12
Cobra vs Ninja

Nachdem Sie der Datei /etc/ceph/ceph.conf oder /etc/ceph/ceph.d/ceph.conf die folgenden Zeilen hinzugefügt und den Dienst ceph.target neu gestartet haben, ist das Problem weiterhin vorhanden.

[mon.1]
Host = kvm-02
mon addr = 10.11.110.112:6789
mon allow pool delete = true
0
user2958548

Nachdem Sie die Konfiguration bearbeitet haben, müssen Sie den Knoten neu starten. Nach dem Neustart lief alles reibungslos! 

0
Florius