Hallo Community,
für uns stellt sich die Frage, ob wir unsere aktuelle IT-Infrastruktur (zur Zeit "Windows Server 2012R2", Client-Server) demnächst entweder noch 'kernsanieren' können oder wollen oder gar auf eine ASP-Lösung (DatevASP oder PartnerASP) umsteigen sollten bzw. müssen.
Als Planungs- und Entscheidungshilfe wäre es gut, wenn wir die derzeitige Auslastung unserer Datev-Arbeitsplätze loggen, auswerten und z.B. visualisieren könnten.
Gibt es vielleicht 'Datev-Bordmittel', um solche Übersichten, Logbücher, Auswertungen zu erstellen ?
Alleine durch organisatorische Umstrukturierung innerhalb der Kanzlei könnte man vermutlich ein paar Clients einsparen, was natürlich auch einen 'Kollateralnutzen' mit sich brächte (weniger Hardware und Software zu kaufen und zu pflegen u.a. positive Effekte).
Eine solche Auswertung wäre auch hilfreich für die Kalkulation einer ASP-Lösung, da dort die Kosten im Wesentlichen von der Anzahl der gleichzeitig aktiven Benutzer abhängt und nicht von der Anzahl der administrierten Benutzer.
Hallo Vogtsburger, wir nutzen für Zwecke wie diesen auf unseren Kundensystemen Monitoring-Lösungen. Aber mit den Windows-Boardmitteln wie dem Windows Ressourcenmonitor und der Windows Leistungsüberwachung kann man auch schon einiges machen.
Im DATEV-Ordner findet sich im Ordner RWAPPLIC der Befehl, um den DATEV-Rechnungswesen-Leistungsindex zu ermitteln. Diesen sollte man im laufenden Betrieb hier und da mal ausführen (Leistungsindex.cmd). Eine Automation dafür gibt es von Haus aus nicht.
Der Wert sollte zwischen 6 und 10 liegen, wobei der Wert umso besser ist, desto niedriger er ist. Die Werte unserer Systeme liegen je nach Größe des Kunden und Systemauslastung mit sonstigen Applikationen zwischen 6,5 und 8,5.
Generell eine von mehreren guten Möglichkeiten, um zu überprüfen, wie gut das eigene oder das vom ASP-Anbieter bereitgestellte System tatsächlich ist. 😉
Beispiel:
... und dann habe ich eine Momentaufnahme, wo der ausführende User (im Client Server Netz) gespannt auf den Monitor schaut, und am "normalen Workload" vorbei "gemessen" wird. Auf einem Terminalserver ist der Leistungsindex auch nicht wirklich ein zuverlässiger Indikator zur Gesamtperformance.
(Zur richtigen / falschen Zeit ausgeführt, kann man einem Kunden so natürlich total tolle / bescheidene Werte vorgaukeln. ;))
"Aussagekräftige" Ergebnisse sind da deutlich komplizierter zu bekommen und vor Allem zu vergleichen / in Relation zu setzen / zu bewerten.
Option 1) Man bucht die (kostenpflichtige) Analys der DATEV (und schaut dabei über die Schulter, was / wie gemessen wird
Option 2) Man hat ein Performance Problem und geht über das PDF
Ansonsten für den SQL Server:
Es gab auch mal den "Perfalyser", der entsprechende Leistungsindikatoren / Performance Counter aus dem Betriebssystem aufgezeichnet hat. Da finde ich aber den Download gerade nicht. Allerdings muss auch dieses Ergebnis ausgewertet (und verstanden) werden. 🙂
ja, die REWE-Leistungsmessung mit dem Datev-Tool ist nett und informativ, aber wie @janm schon gesagt hat, nur eine 'Momentaufnahme'
Mich interessieren vor allem die Spitzenwerte, die Überlastungen, aber auch die 'Unterforderungen', die Leerläufe, die 'Nadelöhre', die Arbeits- und Ruhezeiten der Clients etc.
... mit dem 'Hintergedanken', die eingesetzte Hard- und Software technisch und betriebswirtschaftlich zu optimieren
... ideal wäre eine graphische Darstellung der Einzel-Auslastungen der Clients und des Servers und der Gesamt-Auslastungen des LANs
... quasi das 'Langzeit EKG' der IT-Infrastruktur
... gut möglich, dass einzelne Hard- und Software-Komponenten viel mehr könnten, wenn sie bloß dürften und dass evtl einzelne zentrale Komponenten die gesamte IT-Infrastruktur ausbremsen bzw. sogar gefährden
... und dann habe ich eine Momentaufnahme, wo der ausführende User (im Client Server Netz) gespannt auf den Monitor schaut, und am "normalen Workload" vorbei "gemessen" wird.
Deshalb auch im Betrieb ("zu Stosszeiten") und öfters
Option 1) Man bucht die (kostenpflichtige) Analys der DATEV (und schaut dabei über die Schulter, was / wie gemessen wird
Dieser verwendet die selben Tools.
Warum wollen Sie gerade jetzt Client/Server aufgeben?
Läuft es denn langsam bei Ihnen?
Der WTS hat mehr Leistungsspitzen als der FatClient.
Und die FatClients haben ohnehin mehr Reserven.. dafür ziehen sie in Summe auch (viel) mehr Strom.
Allerdings auch nicht 24h am Tag.
..mit den aktuellen Raptor-Lakes und Alder-Lakes im FatClient bekommt man auch 4,x - 5,x im Leistungsindex.
Das wird schwierig mit Server-CPU's.
Ich zieh bis ~2030 mit Client/Server noch durch.. ab dahin: alles Cloud?!..
@Gelöschter Nutzer ,
momentan bin ich mit Client-Server ("Fat Clients"), mit der Software-Ausstattung und auch mit der Performance im LAN zufrieden, ...
... aber da auf ein neues Windows-Server-Betriebssystem gewechselt werden muss, ist es ein geeigneter Zeitpunkt, um über Alternativen (wenigstens) nachzudenken.
Ich möchte jedenfalls auf einen Zug aufspringen, der nicht schnurstracks auf ein Abstellgleis führt
Das Austüfteln einer optimalen Hard- und Software-Ausstattung wäre eigentlich eine schöne Aufgabe für ein KI-Tool ("Expertensystem"), das einige Fragen stellt und anhand der Antworten und Wünsche das optimale Ergebnis 'ausspuckt' ...
... unter Berücksichtigung der 'Risiken und Nebenwirkungen' der "On Premises"- und "Cloud-Sourcing"-Lösungen
Hallo Vogtsburger,
DATEV mag schnellen Single-Core-Takt.. da die Entwickling der Server-CPU's eher Richtung Mehr-Kern als Mehr-Leistung-je-Kern geht wird die Performance der Client/Server-Umgebung die WTS-Umgebung immer mehr abhängen.
DATEV wird vermutlich an dieser Single-Core-Geschichte nicht mehr viel drehen, sondern versuchen immer mehr Anwendungen in die browserbasierte Cloud zu holen (für mich "richtige" Cloud und nicht Server XY steht einfach irgendwo anders).
Für mich habe ich entschieden: bevor ich jetzt noch auf WTS wechsel und in ein paar Jahren wieder auf VDI migrieren muss, lass ich einfach die x Jahre alte Windows 7/10/11/12-Installation bis zur Cloud laufen (sofern das möglich ist).
Direkt auf VDI geht auch.. ist aber doch saftig bepreist.
Richtige Hardware ist relativ einfach:
Gbit Switch mit 10Gbe SFP+ für Fileserver und NAS.
Schnelle CPU's:
https://www.cpubenchmark.net/singleThread.html#desktop-thread
128-256 GB RAM für Fileserver
SAS-SSD für Fileserver
16GB RAM für Clients
NVME-SSD für Clients
So in die Richtung..
Ich würde mal gerne in schnellen DATEV-VDI-Umgebung arbeiten wollen.. aber dafür ist das Thema vermutlich noch zu jung und die mtl. Kosten dafür würden uns wahrscheinlich aus dem Hocker hauen.
danke @Gelöschter Nutzer
mein eigenes 'Bauchgefühl' geht in die selbe Richtung
Allerdings schiele ich bei der Hard- und Software-Ausstattung nicht nach dem obersten 'Regal', sondern eher nach dem 'Regalfach 3 von 4', also nach der 'gehobenen Mittelklasse'.
In einem anderen Thread wurde nach der ungefähren Investitionssumme für neue Server-Hard- und Software gefragt ...
... würde mich gerne dieser Frage nach den ungefähren Kosten anschließen, vorzugsweise für das 'Regalfach 3 von 4' 😅
... für mich (im Moment noch) der 'Nebel des Grauens' 'im Tal des Ahnungslosen'😎
Regal 4 ist auch nur für Enthusiasten.
Regal 3 würde ich auch empfehlen.. auf 6 Jahre günstig im Vergleich zu den Alternativen.
@janm schrieb:
[...] Allerdings muss auch dieses Ergebnis ausgewertet (und verstanden) werden. 🙂 [...]
... stimmt ...
... ich muss das (leider) bestätigen😅
... nach einem Versuch, das Ergebnis zu interpretieren 😅