Wie konfiguriere ich benutzerdefinierte ceph OSD-Optionen in ceph-ansible?

305
themole

Derzeit setze ich auf einigen ARM-basierten Maschinen einen Ceph-Cluster ein, nämlich den HC2 von ODROID, der mit 4 TB WD Red Drives ausgestattet ist. Ich habe auch einen Artikel von WD Labs gefunden, der dieselbe Aufgabe im großen Maßstab (504 OSDs) ausführt und vorschlägt, die OSD-Einstellungen mit abzustimmen

osd map cache size = 40 osd map max advance = 32 osd map message max = 32 

Nun frage ich mich (nicht nur für diese Optionen), wie sie in die ansible group_vars oder host vars gestellt werden, um die relativ geringen Ressourcen der HC2s zu berücksichtigen.

Momentan glaube ich, dass es mit aktuellen ceph-ansible Playbooks nicht möglich ist.

Ich würde mich sehr freuen, wenn mir jemand einen Hinweis darauf geben könnte. ceph-ansible verwendet scheinbar nicht wirklich Vorlagendateien für die Konfiguration (nur als Platzhalter). Wie kann sie daher erweitert oder optimiert werden, um diese Einstellungen zu ermöglichen?

0

1 Antwort auf die Frage

2
Christian Berendt

Dies ist mit dem ceph_conf_overridesParameter ( http://docs.ceph.com/ceph-ansible/master/#ceph-conf-configuration ) möglich.

ceph_conf_overrides: osd: osd map cache size: 40 osd map max advance: 32 osd map message max: 32