Guten Tag zusammen,
bei der netzwerkweiten Aktualisierung (File-Server-Umgebung) kommen die Rechner, die zuerst fertig sind zu den Datenanpassungen. Der schnellste Rechner merkt sich dann gleich vier Datenbanken auf einmal vor und nimmt diese in Angriff. Bei einem kleinen Update sind dies bereits alle Datenbanken, die angepasst werden müssen. Meiner Meinung nach ist somit das Konzept der neuen Datenanpassung überflüssig wenn am Ende doch nur ein einzelner Rechner alle Anpassungen an sich zieht.
Warum überhaupt holt sich ein Rechner gleich vier Datenbanken auf einmal her? Ich verstehe nicht, was dies soll.
Wenn also eine Verteilung der Last erfolgen soll, würde ich mir eine intelligentere Verteilung zur Datenanpassung wünschen.
Schönes Wochenende!
Sehr geehrter Herr Kohls,
definieren Sie "intelligente Verteilung".
der bei der Installation schnellste Rechner hat bis die weiteren Rechner die Installation abgeschlossen haben, die meiste Zeit um auch die Datenanpassung vorzunehmen.
Wenn jeder Rechner nach der Anpassung einer Datenbank zunächst prüfen muss, ob weitere Datenbanken zur Anpassung bereit stehen, sehe ich mehr potentielle Konflikte als tatsächlichen Zeitgewinn.
Ich bevorzuge sogar die Datenanpassung an nur einem Rechner.
mfg.
Andreas G. Müller
Ich bevorzuge auch die Anpassung an einem PC (parallel zur Aktualisierung der anderen Arbeitsplätze [in diesem Fall TS]).
Wenn ich Herr Kohls richtig verstehe scheinen sich die Rechner bei verteilter Anpassung mehr als eine Datenbank zu reservieren. Das fände ich komisch. Es sollte sich jeder Rechner immer ein Datenpfad reservieren und anpassen. Nach Abschluß dann den nächsten.
Vielleicht ist meine Vorstellung veraltet, aber ich möchte alles schön der Reihe nach erledigt haben:
So bleibt die Option, beim Fehlschlag von 1) bzw. 2) mit wenigen Handgriffen wieder ein funktionsfähiges Kanzlei- System zu erstellen: (Einfach Server- Datenpfad rücksichern und den Master vergessen.) Wenn ein Datenanpassungsproblem, wie vor Jahren in der ZMSD passiert, ist man zu 100% aufgeschmissen, wenn sich die neue Programmversionen bereits auf allen Clients installiert haben.
Bei performanten Systemen bringt das parallele Arbeiten viel weniger Zeitgewinn, als man durch individuelle Verhinderungstaktiken betreffs des Server- Neustarts verliert.
PS: Lieber ein Master- PC, der 20 Minuten lang ohne Benutzereingabe seine Aufgabe erledigt und tut, was er soll, als 10 Min. Streß, daß es einen Unfall durch Server- Neustarts, falsch gesetzte Haken, alte Aufträge usw. gibt.
Es wäre schön, wenn der Neustart konfigurierbar wäre. Leider sieht man dass bei der DATEV etwas anders.
Wenn ich Herr Kohls richtig verstehe scheinen sich die Rechner bei verteilter Anpassung mehr als eine Datenbank zu reservieren. Das fände ich komisch.
Genau das ist bei uns der Fall. Ich bin kein Datenbank-Spezialist trotzdem gehen da bei mir Alarmglocken an, auch wenn bislang keine Probleme daraus resultierten.