Hallo,
für einen neuen SQL-Server (aktuelle Empfehlung: Kleinere Umgebungen für 6-8 Benutzer) stellt sich mir die Frage welche SSDs in welcher Konfiguration ich nehmen soll.
Es wird ja nur "SSD RAID 1 0 (Kapazität nach Anforderung)" empfohlen.
Jetzt hätte ich bei einem passenden Mainboard die Möglichkeit PCIe 5.0 NMVe SSDs zu verbauen. Ich denke mal in Sachen Geschwindigkeit ist das mehr als ausreichend.
Es bleibt eben nur die Frage, ob man wirklich auf ein RAID-10 setzen sollte (hat ja doch nochmal einiges mehr an Leistung.
Die Frage ist nur, braucht man das wirklich? PCIe 5.0 SSD's liegen preislich auch ganz woanders als Wir reden hier nur von max. 4 Mitarbeitern, keinen riesigen Mandanten mit 100+ Mitarbeitern (z.B. Abrechnung Löhne kann da ja schon extrem belastend sein).
SSD kann mittlerweile ja alles heißen wenn ich SATA SSDs/M.2 PCIe 4.0 und M.2 PCIe 5.0 vergleiche.
(Beispielwerte wurden mit diesem Tool und einfachen Consumer SSD's errechnet, damit es schnell ging. - 4x 1TB in Raid 10 und 2x 2TB in Raid 1)
(PCIe 3.0 kosten mehr oder weniger das gleiche wie PCIe 4.0 und werden daher ignoriert)
sortiert nach IO/s (IOPS) /MB/s (Reihenfolge für beide Werte gleich):
SSD-RAID Typ (je 2 TB nutzbare Kapazität) | Kosten | IO/s (IOPS) pro € | MB/s pro € | IO/s (50% lesend/ 50% schreibend) | MB/s (50% lesend/ 50% schreibend) |
SATA RAID 1 (139 € brutto)¹ | 278 € | 436,92 | 2,59 | 121.464,79 | 719,52 |
SATA RAID 10 (139 € brutto)² | 556 € | 436,92 | 2,59 | 242.929,58 | 1.439,03 |
PCIe 4.0 RAID 1 (143 € brutto) | 286 € | 6.253,96 | 33,23 | 1.788.631,58 | 9.504,59 |
PCIe 5.0 RAID 1 (198 € brutto) | 396 € | 5.751,39 | 44,61 | 2.277.551,02 | 17.664,27 |
PCIe 4.0 RAID 10 (143 € brutto) | 572 € | 6.253,96 | 33,23 | 3.577.263,16 | 19.009,17 |
PCIe 5.0 RAID 10 (198 € brutto) | 792 € | 5.910,51 | 44,61 | 4.681.124,50 | 35.328,54 |
¹PCIe 4.0 RAID 1 ist kaum teuer als SATA RAID 1 bei sehr großen Performanceunterschieden, daher lohnt das nicht mehr in meinen Augen.
²SATA RAID 10 macht kostentechnisch keinen Sinn, da ein PCIe 4.0 RAID 1 deutlich mehr Leistung in allen Bereichen) bringt und dazu noch günstiger ist.
Heißt an der Stelle: SATA ist raus, da zusätzlich das Preis/Leistungsverhältnis echt mies ist.
PCIe 5.0 bringt ein besseres Preis/Leistungsverhältnis für MB/s mit sich wobei PCIe 4.0 ein besseres Preis/Leistungsverhältnis für IO/s (IOPS) bietet.
RAID 10 wählt man ja hauptsächlich wegen der besseren Performance, wenn es um das Lesen geht.
Die Tatsache, dass 'mehr' SSD's ausfallen können bevor man Daten verliert ist ja ein Glücksspiel (2 Ausfälle möglich, aber nicht im gleichen RAID 1 Verbund).
Und daher sehe ich RAID-10 eher als Boost für lesende Operationen und nicht als zusätzliche Ausfallsicherheit.
Nun, nach vielen Zahlen und langer Einleitung die eigentliche Frage:
Legt DATEV grundsätzlich mehr Wert auf IO/s (IOPS) oder MB/s? Normal würde ich für einen Terminal-Server (bare metal oder als VM) eher IO/s (IOPS) präferieren und beim SQL-Server kommt es auf die Workload an. Ist diese relativ gut gemischt tendiere ich auch wieder zu IO/s (IOPS).
Aber es könnt ja sein, dass DATEV hier mehr auf OLAP statt auf OLTP setzt, das weiß ich leider nicht.
Mit welchen Werten und damit SSD/Raid-Typ sollte man bei einem zukunftssicheren System planen?
Mache ich mir hier vllt. zu viele Gedanken, denn man könnte ja einfach PCIe 5.0 RAID 10 und gut.
Ich möchte das Ganze natürlich möglichst kostensparend zu gestalten, denn wer bezahlt schon gerne für Performance die man am Ende nicht nutzt bzw. nicht nutzen kann?
Es mag ja Sein, dass ein PCIe 4.0 RAID 1 mehr als ausreichend ist?!
In naher Zukunft werde ich zusätzlich einen weiteren Server mit 11 Usern und deutlich mehr TB Speicherplatz erneuern müssen. Da wird die preisliche Differenz dann eine ganz andere sein. Daher wollte ich die Frage jetzt schon mal stellen.
Besten Dank und ich freue mich auf Meinungen dazu.
"Jetzt hätte ich bei einem passenden Mainboard die Möglichkeit PCIe 5.0 NMVe SSDs zu verbauen."
Hallo,
ist der Vorteil bei einem RAID nicht auch, dass man die theoretisch defekte Platte "von außen Hot-Swap" ziehen kann / die Ersatzplatte einspringt wie geht das auf dem Mainboard oder verstehe ich das falsch?
Es bleibt ja mehr oder minder nur 1 oder 10 - Datev führt RAID 10 auf, das würde ich auch nutzen:
Welche RAID-Stufe (Redundant Array of Independent Disks) du bei einem SQL Server verwenden solltest, hängt stark von deinen Anforderungen an Leistung, Ausfallsicherheit und Kosten ab. Hier eine Übersicht der gängigen RAID-Stufen für SQL Server:
🔹RAID 1 (Spiegelung)
Eigenschaften: Daten werden 1:1 auf zwei Festplatten gespiegelt.
Leistung: Gute Leseleistung, durchschnittliche Schreibleistung.
Redundanz: Hoch – eine Platte kann ausfallen.
Empfehlung: Gut für das Betriebssystem, SQL Server-Instanzdateien, oder kleine Datenbanken mit hohem Schutzbedarf.
🔹RAID 10 (1+0 – Spiegelung & Striping)
Eigenschaften: Kombination aus RAID 1 (Spiegelung) und RAID 0 (Striping).
Leistung: Sehr hohe Lese- und Schreibleistung.
Redundanz: Hoch – mehrere Plattenausfälle sind möglich, je nach Kombination.
Empfehlung: Beste Wahl für SQL Server-Datenbanken mit hoher I/O-Last (z. B. OLTP-Systeme).
🔹
💡Empfohlene Kombinationen für SQL Server
Speicherbereich Empfohlenes RAID
Systempartition | RAID 1 |
Datenbankdateien (.mdf, .ndf) | RAID 10 |
Transaktionslogs (.ldf) | RAID 1 oder RAID 10 |
TempDB | RAID 1 oder RAID 10 |
🔹RAID 1 – Spiegelung (Mirroring)
Funktionsweise:
Alle Daten werden eins zu eins auf zwei Festplatten gespiegelt.
Mindestanzahl Platten: 2
Leistung:
Lesen: Gut (kann von beiden Platten lesen).
Schreiben: Durchschnittlich (muss auf beide schreiben).
Redundanz:
Eine Platte kann ausfallen.
Kosten:
50 % Speichereffizienz – nur die Hälfte des Speicherplatzes ist nutzbar.
Einsatz:
Ideal für Systempartitionen, Transaktionslogs, kleinere Datenmengen.
🔹RAID 10 – Kombination aus Spiegelung & Striping (1+0)
Funktionsweise:
Kombination aus RAID 1 (Spiegelung) und RAID 0 (Striping).
Daten werden zunächst gestripet (verteilt), dann jede Stripe gespiegelt.
Mindestanzahl Platten: 4 (2 für Spiegelung × 2 für Striping)
Leistung:
Lesen: Sehr gut (kann parallel von mehreren Spiegelpaaren lesen).
Schreiben: Sehr gut (schreibt verteilt, gespiegelt).
Redundanz:
Höher als RAID 1 – es können mehrere Platten ausfallen, solange nicht beide aus einem Spiegelpaar gleichzeitig.
Kosten:
Auch 50 % nutzbarer Speicher, aber mit mehr Hardware.
Einsatz:
Beste Wahl für produktive SQL-Server mit hoher Last (OLTP, TempDB, große Datenbanken).
🔍Direktvergleich
Merkmal RAID 1 RAID 10
Plattenanzahl | min. 2 | min. 4 |
Leseleistung | Gut | Sehr gut |
Schreibleistung | Mittel | Sehr gut |
Redundanz | Hoch (1 Platte) | Sehr hoch (mehrere möglich) |
Kosten | 50 % Speicher nutzbar | 50 % Speicher nutzbar (aber teurer) |
Komplexität | Einfach | Komplexer (Controller benötigt) |
Würde einfach Intel VRoc Raid1 mit geeigneten Enterprise-NVMe-SSDs nehmen.
Entweder einen einfachen Verbund oder mehrere Raid1 (getrennt z.B. nach SQL, OS usw.).
Ob PCIe 4 oder 5 ist nicht relevant.
Raid 10, das kostet doch alles nix mehr. 😉
Hyper-V (mit 2 m2 / "Bootcard" / SATA DOM) aufs Blech und dann Storages Spaces: Storage Spaces overview | Microsoft Learn
Oder halt mal prüfen, wie stark der Schuh gerade drückt und ggfs. noch etwas warten bzgl. "DATEV Cloud Strategie" bzw. eher VMs bei einem Anbieter wie bspw. in der Terra Cloud buchen.
Hallo @GLH
@GLH schrieb:
ist der Vorteil bei einem RAID nicht auch, dass man die theoretisch defekte Platte "von außen Hot-Swap" ziehen kann / die Ersatzplatte einspringt wie geht das auf dem Mainboard oder verstehe ich das falsch?
Es bleibt ja mehr oder minder nur 1 oder 10 - Datev führt RAID 10 auf, das würde ich auch nutzen:
Das ist auf jeden fall ein Vorteil, ja. Hier gibt es aber einige Probleme bzw. Besonderheiten:
Sprich ein RAID-1 Setup komplett intern kostet 265 €.
Ein RAID-10 Setup liegt intern bei 784 €
Ein RAID-10 Setup mit Wechselrahmen, so dass man von außen ran kommt bei 1570 €.
Die Preissprünge find ich schon nicht ohne, wenn man bedenkt, dass hier nur 2 TB M.2 SSD's mit einem Stückpreis von knapp 125 brutto rein kommen.
Final sähe es dann so aus:
Hier finde ich also durchaus ok einmal zu hinterfragen, was wirklich sein "muss" oder ob man z.B. den Server kurz runterfahren kann um ne SSD's zu tauschen.
In einer Kanzlei mit 20 Mitarbeitern wäre das etwas anderes, wenn man alle einmal stilllegen muss, aber bei 4 Leuten halte ich das noch für vertretbar.
Dazu kommt noch, dass M.2 nicht für Hot-Swap entwickelt und vorgesehen ist. Daher würde ich bei diesen SSD's eh den Server immer herunterfahren.
Man kann natürlich auf U.2 SSD's setzen, aber diese kommen in der Größe von 2 TB mit deutlich anderen Leistungsdaten und hier sehe ich nur die Leseintensiven im Vorteil. Wenn man aber deren Schreibwerte sieht und die mit M.2 vergleicht ist das schon heftig (IOPS lesend ~*2 aber Schreibend ~/10).
PCIe 4.0 M.2 | PCIe 4.0 U.2 | PCIe 4.0 U.2 (Read Intensive) | |
Lesen MB/s | 7300MB/s | 6800 MB/s | 7400MB/s |
Schreiben MB/s | 6300MB/s | 2700 MB/s | 4300MB/s |
IOPS 4K lesend | 800k | 740k | 1700k |
IOPS 4K schreibend | 1300k | 130k | 118k |
Ob DATEV jetzt so stark leseintensiv ist, dass man mit solchen (im Vergleich) geringen Schreibwerten leben kann weiß ich nicht.
Daher würde ich M.2 im Vorteil sehen, da hier die Performance im Schnitt (lesend/schreibend) besser ist.
Falls jemand weiß, ob DATEV für die Datenbanken mehr in Richtung lesend oder schreibend tendiert bzw. wie die Aufteilung typischerweise ist oder ob und wie man das "auslesen" kann darf gerne Bescheid sagen 😉
@GLH schrieb:
Welche RAID-Stufe (Redundant Array of Independent Disks) du bei einem SQL Server verwenden solltest, hängt stark von deinen Anforderungen an Leistung, Ausfallsicherheit und Kosten ab. Hier eine Übersicht der gängigen RAID-Stufen für SQL Server:
Die Vorteile von RAID-1/RAID-10 sind mir bekannt und ich würde für RAID-10 nur die besseren Lesewerte als Vorteil bewerten.
Die "erhöhte Ausfallsicherheit" beruht ja auf dem Glück, dass nicht 2 aus dem gleichen RAID-1 Verbund ausfallen. Aber Sicherheit auf dem Rück von Glück halte ich für unberechenbar und daher gibt es mir keine 'Sicherheit'.
Das mag aber jeder wieder anders sehen.
Und, ob man die erhöhten Lesewerte braucht, oder ob die von RAID-1 ausreichen war ja genau meine Frage.
Hallo @Suppenhans
@Suppenhans schrieb:Würde einfach Intel VRoc Raid1 mit geeigneten Enterprise-NVMe-SSDs nehmen.
Entweder einen einfachen Verbund oder mehrere Raid1 (getrennt z.B. nach SQL, OS usw.).
Ob PCIe 4 oder 5 ist nicht relevant.
Das hatte ich auch überlegt, aber wenn es geht würde ich immer Hardware-RAID einem Software-RAID vorziehen.
Software-RAID belastet die CPU noch zusätzlich und kommt in Sachen Performance nicht an Software-RAID heran.
Es gibt aber natürlich auch Fälle, wo das egal ist weil die Performance auch so reicht und wenn die CPU entsprechen Power hat ist auch das kein Problem mehr.
Und PCIe 5.0 RAID 1 vs. PCIe 4.0 RAID 10 find ich schon spannend. Aber nach weiterer Recherche find ich Hardware RAID-Controller für PCIe 5.0 einfach zu teuer für so ein kleines Setup. Ich werde also bei PCIe 4.0 bleiben.
Hallo @Ichlesegern
@Ichlesegern schrieb:Raid 10, das kostet doch alles nix mehr. 😉
Die Berechnung von oben:
Ich finde schon, dass es lohnt hier einmal genauer hin zu sehen. Die Preissprünge sind schon nicht ohne.
Hallo @janm
@janm schrieb:Hyper-V (mit 2 m2 / "Bootcard" / SATA DOM) aufs Blech und dann Storages Spaces: Storage Spaces overview | Microsoft Learn
Das wäre eine Idee, ich würde aber immer Hardware-RAID bevorzugen. Den RAID-1 Controller für 265 € finde ich echt ok.
Aber dem entnehme ich, dass ein RAID-1 (entweder Software oder Hardware) hier wohl ausreichend ist?
Oder halt mal prüfen, wie stark der Schuh gerade drückt und ggfs. noch etwas warten bzgl. "DATEV Cloud Strategie" bzw. eher VMs bei einem Anbieter wie bspw. in der Terra Cloud buchen.
Warten ist leider keine Option. Aktuell läuft der Peer-Server auf einem Notebook und das kommt an seine Grenzen. Es fängt an den laufenden Betrieb zu bremsen, daher muss jetzt eine neue Lösung her.
man baut sich mit einem hardwareraid einen zusätzlichen spof ein.. zudem besteht auch noch eine höhere gefahr für korrupte daten.. und strom/cache ist auch so eine sache.. und abwärme auch… und trim auch.
raid 0/1/10 belastet die cpu fast gar nicht, da anders als bei raid 5/6 usw.
keine paritäten berechnet werden müssen. und selbst das ist bei der heutigen hardware kein akt mehr.
ich find vroc in vielerlei hinsicht ziemlich geil (im windowsumfeld) und läuft auch mit datev/sql sehr gut.. egal ob raid1 oder 10. die latenz ist auch sehr niedrig im vergleich zu hw-controller.
Genau das meine ich, früher haben 2. Arbeitsplätze beim Mandanten 100.000 Mark gekostet,
zumindest bei Olivetti, M40 und so...😃
Ja ich weiß, bin ein alter Sack. 🙄
Moin,
die Frage ist in wie weit sich ein "hochgezüchtetes" RAID noch auf den laufenden Betrieb auswirkt bzw. auswirken kann.
Flaschenhälse wie die Verbindung zum Client (1GB / evtl. mehr) bleiben bestehen. Und der SQL organisiert sich hier mehr und mehr über RAM.
RAID mit SSD's sind Pflicht. Darüber hinaus bleibt noch RAM und mehr RAM. Zudem war auf dem letzten Admin-Workshop nochmals der Hinweis zu den Wartungsskripten. Die sollten ebenfalls nicht fehlen, damit der SQL auch eine Chance hat sich optimal zu organisieren.
Alles andere wirkt sich maximal noch bei den Updates aus, wenn wirklich Schreib-/Leseaktionen über das Netzwerk mit dem Server getätigt werden.
Schaut Euch hierzu auch gern einmal bestehende Server mit PerfMonitor, Sysinternals, Taskmanager u.s.w. an.
Beste Grüße
Christian Ockenfels
Hallo @Suppenhans
@Suppenhans schrieb:
raid 0/1/10 belastet die cpu fast gar nicht, da anders als bei raid 5/6 usw.
keine paritäten berechnet werden müssen. und selbst das ist bei der heutigen hardware kein akt mehr.
ich find vroc in vielerlei hinsicht ziemlich geil (im windowsumfeld) und läuft auch mit datev/sql sehr gut.. egal ob raid1 oder 10. die latenz ist auch sehr niedrig im vergleich zu hw-controller.
Wenn ich die Möglichkeit habe PCIe 5.0 SSDs zu nehmen würde ich auch VROC/Storage Spaces nehmen. Das würde für mich die Entscheidung auf jeden fall leichter machen.
@Suppenhans schrieb:
man baut sich mit einem hardwareraid einen zusätzlichen spof ein.. zudem besteht auch noch eine höhere gefahr für korrupte daten.. und strom/cache ist auch so eine sache.. und abwärme auch… und trim auch.
Bei einem ordentlichen Controller mit BBU und passendem Cache der auch TRIM Support hat sehe ich da bis auf die Abwärme eigentlich keine Probleme.
Wenn man allerdings einen Budget Controller nimmt hat du natürlich recht.
Ich will in erster Hinsicht ja schauen welche Performance Werte ich erreichen sollte, damit das System gut läuft.
Hallo @chrisocki
@chrisocki schrieb:Moin,
die Frage ist in wie weit sich ein "hochgezüchtetes" RAID noch auf den laufenden Betrieb auswirkt bzw. auswirken kann.
Flaschenhälse wie die Verbindung zum Client (1GB / evtl. mehr) bleiben bestehen.
Beim aktuellen Projekt wird eh auf Terminalserver gesetzt. Da steht ja mind. ein 10 GB/s Verbindung. Ich überlege aber je nach dem sogar auf 40 GB bzw. 100 GB NIC's zu gehen.
Diese sind heutzutage ja auch längst nicht mehr so teuer.
DATEV empfiehlt ja es schon 25 GB's für den SQL-Server. Refurbed Dual 40 GB NICs kosten keine 50 € (Refurbed Single 100 GB knapp 80 €). Da kann man sogar leicht einen als Ersatz liegen haben.
Da das Mainboard ja in der Regel 2x 10GB als "Fallback" mitbringt habe ich hier absolut keine Probleme auf Refubed Geräte zu setzen. Preis/Leistung ist super, sogar mit Ersatzgeräten vor Ort. Und onBoard Fallback gibt es ja auch noch.
Ich würde also schon glauben, dass mit entsprechendem Netzwerk hier aus einem RAID mehr rauszuholen ist.
Aber ohne WTS mit Clients die mit 1 GB/s angebunden da ist natürlich schnell Schluss mit Performance.
@it-servicekrefeld schrieb:
Ich würde also schon glauben, dass mit entsprechendem Netzwerk hier aus einem RAID mehr rauszuholen ist.
Aber ohne WTS mit Clients die mit 1 GB/s angebunden da ist natürlich schnell Schluss mit Performance.
Jaein...
Dann aber nicht wegen der Bandbreite, sondern weil die NIC's aufgrund von entsprechenden Chips einfach leistungsfähiger sind. Workloads (SQL-Statements) sind da im laufenden DATEV-Client-Server-Betrieb so "winzig klein". Die fallen in der Bandbreite einfach nicht auf...
Die "dicksten" Brocken sind da Dokumente, welche als Scan o.ä. aus dem DMS und zurück geschaufelt werden.
Eine SQL-Abfrage (Mandantenübersicht) ist dagegen ein Witz... Und da wird die "Last" auf dem SQL-Server produziert. Da sind wird dann wieder bei dem Thema Festplatten/RAM...
Da reicht schon ein simpler Blick in den Taskmanager. Wenn da eine 10GBit-Karte tatsächlich ausgelastet wird, würde mich das wundern. Ähnliche Effekte hatten wir schon vor Jahrzehnten. Das konnte dann mit NIC-Teaming deutlich verbessert werden (auch bei 1GBit), da dann die anfallenden Pakete verteilt wurden.
Insgesamt ist halt die Frage ob man sich ein Onprem-System (auch bei 4 Benutzern) geben möchte. Unter Berücksichtigung aller Umgebungsparameter (Strom, Kühlung, Anschaffung, Pflege, Ausfall, etc.) stellt sich schon die Frage ob man nicht zu einem Anbieter wie TerraCloud. PartnerASP, o.ä. greift.
Das ist aber eine andere Diskussion.
Beste Grüße
Christian Ockenfels
Im Fall von einem Standalone Virtualisierung Host (ist im Fall von Hyper-V jedenfalls) die Geschwindigkeit der physikalischen NICs für die Kommunikation der VMs untereinander egal.
Nachtrag, zum Thema NIC-Bandbreite.
ScreenShot DATEVasp / Terminalserver / aktuell 7 Benutzer angemeldet:
Da sind wir also von 1GB und mehr weit entfernt.
Hallo @janm
@chrisocki schrieb:Jaein...
Dann aber nicht wegen der Bandbreite, sondern weil die NIC's aufgrund von entsprechenden Chips einfach leistungsfähiger sind. Workloads (SQL-Statements) sind da im laufenden DATEV-Client-Server-Betrieb so "winzig klein". Die fallen in der Bandbreite einfach nicht auf...
Die "dicksten" Brocken sind da Dokumente, welche als Scan o.ä. aus dem DMS und zurück geschaufelt werden.
Eine SQL-Abfrage (Mandantenübersicht) ist dagegen ein Witz... Und da wird die "Last" auf dem SQL-Server produziert. Da sind wird dann wieder bei dem Thema Festplatten/RAM...
Da reicht schon ein simpler Blick in den Taskmanager. Wenn da eine 10GBit-Karte tatsächlich ausgelastet wird, würde mich das wundern. Ähnliche Effekte hatten wir schon vor Jahrzehnten. Das konnte dann mit NIC-Teaming deutlich verbessert werden (auch bei 1GBit), da dann die anfallenden Pakete verteilt wurden.
Das ist ein guter Hinweis, mit den genauen Abläufen von DATEV intern kenne ich mich noch nicht so gut aus.
Insgesamt ist halt die Frage ob man sich ein Onprem-System (auch bei 4 Benutzern) geben möchte. Unter Berücksichtigung aller Umgebungsparameter (Strom, Kühlung, Anschaffung, Pflege, Ausfall, etc.) stellt sich schon die Frage ob man nicht zu einem Anbieter wie TerraCloud. PartnerASP, o.ä. greift.
Das ist aber eine andere Diskussion.
Das stimmt. Es steht zum Glück auch die Frage im Raum z.B. bei Hetzer dedicated Server anzumieten.
Dann hätte man Strom, Kühlung, Ausfälle, Anschaffung etc. nicht mehr am Hals.
Andere Cloud-Ressourcen würden somit also auch im Raum des Möglichkeiten sein.
Das Ganze in die Cloud zu legen wäre auch meine präferierte Lösung aufgrund der Größe der Kanzlei.
Kostentechnisch habe ich das noch nicht bis zum Ende durchkalkuliert aber da schaue ich mal. Wird etwas teuer sein pro Monat aber durch geringeres Risiko denke ich trotzdem einen Blick wert.
Das stimmt. Endlich mal ein Vorteil dieses nicht so ganz empfohlen Setup's 😂
Was ist ein "nicht empfohlenes Setup"?
meines Wissens nach ist das Szenario "1 Host auf dem alles läuft" nicht so gerne gesehen 😉
Im besten Fall hat man ja immer mind. 2 DC's und mehrere Terminalserver um Ausfälle abfangen zu können. Und zumindest bei der letzten Kanzlei die ausgestattet wurde (2018) wurde einem auch die Trennung von SQL und WTS auf separate Hosts noch sehr ans Herz gelegt. Ggf. hat sich das aber schon wieder geändert.
Das Ganze ist in größeren Umgebungen auch gut umsetzbar. Bei kleinen Umgebungen schlottert aber jeder Kunde direkt mit den Beinen, wenn man auflistet was "eigentlich" alles angeschafft werden muss.
bei bbu haste wieder ne batterie im server.. dann lieber mfbu oder das teil ganz weg lassen.
ein controller schafft vielleicht mehr durchsatz.. dennoch hast du mehr latenz, weniger iops usw
welcher hw-controller kann trim bei raid-config?
das system wird mit einer 4.0 nvme genauso gut laufen wie mit einem raid10 5.0. hauptsache genug ram, hohen basistakt und richtig konfiguriert.