Kay Martinen meinte:
>> Ein kompletter Ceph-Cluster besteht sinnvollerweise minimal aus ca.
>> 7 Daten-Servern, jeder mit etlichen Platten, und einigen
>> Monitor-servern. Sowas braucht man nur bei zeimlich großen
>> Installationen, und bevor man sowas produktiv einsetzt, sollte man
>> sich eine Zeitlang damit beschäftigt haben.
>
> Guter Einwand, ich dachte das ginge bei PVE ab mindestens 2 Nodes die
> das dann auch noch mit erledigen könnten.
Nun ja, "Im Prinzip ja" wäre da die richtige Antwort, man bekommt die
ceph-Dienste auf so etwas dazu, dass sie laufen. Man bekommt ceph auf
kleinen Konfiguratio9nen zum laufenb, im Zweifel als VMs in einem
Notebook. Ich habe auch mal zum Kennenlernen ein ceph auf drei
Uraltservern mit je vier Platten in Gang gebracht.
Aber damit hat man erstens nicht die Funktionalität, für die ceph
gedacht ist Zum Beispiel erasure code, also eine Verallgemeinerung von
Raid5 und Raid 6, auf viele Server und deren Platten mit Sicherheit vor
Ausfall eines ganzen Knotens. Die Idee von ceph ist: billige Platten,
kein Raiodcontroller, Daten über viele Server replizieren; normalerweise
mit replication=3 (d.h. die Daten liegen auf drei Platten, die auf drei
server verteilt sind; auch wenn einer davon ausfällt, hat man noch
Redundanz, und die braucht man bei billigen großen Platten auch). Dafür
braucht man eigentlich mindestens 4 Server (denn man will ja, dass bei
Ausfall einer Maschine die Redundanz wieder hergestellt werden kann -
wer weiß, wie schnell man eine Ersatzmaschine bekommt). Und in so einer
Konfiguration hat man netto nur 1/4 der Bruttokapazität (wenn man mit
replication 3 und Platzreserve für den K-Fall eines Servers arbeitet).
Reale ceph-Cluster laufen meist mit Erasurecode, weil jedem
Kostenstelleniunhaber die dreifache Redundanz plus Kapazitätsreserve
seelischen Schmerz bereitet - aber für eine etws plattensparsamere
Konfiguration von Erasurecode 4+2, also sowas Ähnliches wie Raid6,
braucht man 6 Server und einen als Reserve. (Man /kann/ bei ceph und
erasure code die Redundanz ins Aschgraue treiben, wenn mans denn
braucht; ich kenne einen realen Fall, wo wg. Standortredundanz 20 Server
plus Monitore und Gateways auf 2 Standorte verteilt wurden und dann die
Daten auf EC 7+11 (!), also 11 Parityplatten für 7 Datenplatten,
gespeichert wurden; das überlebte dann (für die ceph-Clients
unterbrechungtsfrei) tatsächlich den Ausfall eines ganzen Standorts und
hatte am überlebenden Standort immer noch Redundanz gegen Plattenfehler
und den ausfall eines ganzen Servers). Wie gesagt: ceph ist was für
große Installationen; o.g. war eher noch klein und hatte netto dann ca.
800 TB Nutzkapazität.
Und zweitens schrieb ich "produktiv einsetzen". Dafür schlägt
ceph.com
sowas vor wie: Monitore auf drei dedizierten servervn, nicht mit den
Plattenb mischen; Gateways für cephfs ioder iscsi auf dedizierten
Servern, auf den ceph-Knoten /nur/ die ceph-Funkjtionalität, nicht noch
zusätzlich zB proxmox, ... Wie gesagt: etwas für große Umgebungen.
Mit VMs auf dem Notebook (mit viel RAM) kann man das Ganze kennenlernen.
Wenn mans aber produktiv einsetzen will, ist sowas wie "3 kleine Server
mit je 4 Platten" nicht das Gelbe vom Ei.