Unter der Mandantenansicht hat es sich bei uns bewährt auch Schnellansichten anzuzeigen. Wir nutzen SmartIT.
Es kommt bei uns in letzter Zeit öfter vor, dass zwar Mandant A angeklickt ist, aber in den Schnellansichten die Daten von Mandant B angezeigt werden (z.B. Stammdaten).
Wird hierüber dann z.B. bei Stammdaten/Kommunikation eine Mail versendet, landet diese dann ganz schnell beim falschen Mandanten, ein unschönes Szenario.
Ich nehme an, dass hier die Datenbanken ein Aktualisierungsproblem haben?
Kennt jemand noch diese Performanceprobleme?
Gleiches bei mir (ebenfalls SmartIT). Wenn man laaange genug wartet, springt es dann um.
Die Performance in der SmartIT ist allgemein sehr schlecht im Moment.
Ich hatte vorher immer mehrere Mandantenübersichten gleichzeitig und mehrere Schnellinfos pro Übersicht offen. Ich habe das jetzt auf ein Minimum reduziert um wenigstens einigermaßen flüssig arbeiten zu können.
Das stimmt. Auch bei neu erstellten Dokumenten dauert es eine Ewigkeit bis sie in der Dokumentenübersicht erscheinen.
Ein reibungsloses und zügiges Arbeiten ist so derzeit nicht möglich.
Unter DIGITALER High-End Performance stelle ich mir was ganz anderes vor. Derzeit bin ich mit dem Mauszeiger wesentlich schneller als DATEV hinterherkommt.......
kann man unter Datev smart-it den Leistungsindex aufrufen?
Sollte sein unter C:\Program Files (x86)\DATEV\PROGRAMM\RWAPPLIC\Leistungsindex.cmd
@Gelöschter Nutzer schrieb:
Es kommt bei uns in letzter Zeit öfter vor, dass zwar Mandant A angeklickt ist, aber in den Schnellansichten die Daten von Mandant B angezeigt werden (z.B. Stammdaten).
Das hat mit Smart IT meine ich weniger zu tun. Das ist tatsächlich einfach: DATEV und die SQL Abfragen, die im Hintergrund laufen @siro? Mir nicht unbekannt, dass auch F5 oder Rechtsklick > aktualisieren nicht hilft. Bei uns im DATEVasp muss ich bei bestimmten Dingen auch einen anderen Mandanten suchen und dann den anderen Mandanten, damit sich in der Schnellinfo etwas ändert.
Auch heute beim Admin Workshop habe ich zu oft zu lange warten müssen, als man uns Neuerungen zeigen wollte und die Übernahme der Stammdaten nach Basisdaten online geht mit 4 Mandanten / Sekunde. Bei 37.000 Mandanten sagte man uns: ca. 2,5h und in der Zeit muss der Browser offen bleiben.
@siro schrieb:
kann man unter Datev smart-it den Leistungsindex aufrufen?
Ich glaube nicht, weil C:\ wirklich dicht ist. In bestimmten Fällen kommt man via Eingabe C:\ im Explorer noch dahin aber das ist in der Smart-IT meine ich dicht.
@Gelöschter Nutzer & @olafbietz: Mal einen SK abgesetzt und um Abhilfe gebeten? Ich habe von unseren Smart IT Mandanten nichts gehört. Die nutzen aber auch "nur" REWE mit ein einer Hand voll Unternehmen - mehr nicht.
@metalposaunist, da muss ich Dich enttäuschen, das Verhalten hat durchaus etwas mit SmartIT und den Designfehlern des Arbeitsplatzes zu tun.
SmartIT ist auf das standarisierte Ausliefern von Maschinen mit möglichst wenig Administrationsaufwand ausgelegt. Die Begrenzung auf eine bestimmte Nutzeranzahl zeigt auch schon die begrenzte Leistung der virtuellen Maschine.
Auf dieser Maschine läuft nun der Arbeitsplatz mit seinen Designfehlern. Der AP hol sich zunächst alle Daten die in allen Anzeigen benötigt werden, @zippo hat es in einem Post einmal eindrücklich beschrieben. Wenn jetzt, möglichst noch bei genutzter Dokumentablage, der Mandant gewechselt wird dauert es natürlich bis alle Daten für den neu gewhälten Mandanten gefiltert, gruppiert und dargestellt sind. Wird in dieser Zeit aus den Schnellansichten etwas als Link dargestelltes angeklickt, kann es sein, dass der Link noch nicht aktualisiert wurde. Da nützt einem die F5 Taste wenig.
Alle Maßnahmen, die Abhilfe schaffen könnten, sind in SmartIT ausgeschlossen.
Der Grund liegt, wie gesagt, im Kunstruktionsfehlers des AP, Filter vs. Abfrage und Views.
PS: Sind nur 30 Mandanten vorhanden spielt es natürlich keine Rolle.
... beim Versuch, einem befreundeten StB (und SmartIT-Nutzer) bei dem einen oder anderen Problemchen oder Effekt zu helfen, bin ich bei SmartIT schon öfter gegen eine Wand gelaufen.
Anscheinend wird (fast) alles blockiert, was man auf Systemebene bzw. auf Kommandozeilenebene ausführen oder checken könnte.
Entweder gehört das zu der von Datev propagierten "Unlearning"-Strategie (Strategie des Verlernens)
oder Datev will das Motto durchsetzen:
"Du darfst alles essen, aber nicht alles wissen !"
@vogtsburger, das ist keine DATEV Strategie sondern eine Notwendigkeit. Dem Kunden wird ein Terminalserver mit der lizenzierten DATEV und notwendiger anderer Software zur exklusiven Nutzung überlassen. Das geschieht auf einer standarisierten Plattform die für alle gleich sein muss. DATEV hat bestimmte Tools zur Herstellung, Wartung und Aktualisierung im Einsatz die auf die Gegebenheiten angepasst sind. Ein installierter Druckertreiber eines Nutzers würde das Gebilde stören.
Da in einer solchen Serverfarm andere Regeln gelten sollte klar sein, der Provider macht ja genau dasselbe mit seinen Servern, auch hier bekommt man ein Standardprodukt mit abgestuften Rechten. Die Preise richten sich dann nach dem Umfang des gewünschten Leistungsumfangs und dem Administrationsserviceses. Auch hier geht es also von "alles geschottet" bis "mach was Du willst".
Den letzten Punkt bildet das Lizenzmanagement der Windowsumgebung, das ist nicht trivial und DATEV wird das natürlich optimiert haben, woraus sich für den Enduser evtl. wieder Einschränkungen ergeben.
Aber in 10 Jahren wird es natürlich nur noch Browseranwendungen geben, da ist eine SmartIT nicht mehr notwendig, die notwendigen Mehrkosten zahlen wir gerne und arbeiten an derselben Sache länger und das zu geringeren Erlösen. Ist ja digital und diegital darf den Kunden nichts kosten. Oder habe ich da jetzt etwas falsch verstanden?
... dass man als Anwender in einer Cloud keine Administratorenrechte erwarten kann, ist mir klar, aber bei einem seltsamen Verhalten oder bei 'unterirdischer' Performance würde man doch z.B. gerne wissen, wie die Ressourcenauslastung (CPU, RAM, Datenträger, Netzwerk etc) ist, welcher Prozessor verwendet wird, Details zum Betriebssystem, Versionsstände von Systemdateien etc.
Hierdurch verändert man ja nichts. Man sucht nur nach einer logischen Erklärung für das 'Fehlverhalten'.
Aber auch solche grundlegenden Informationen werden blockiert, jedenfalls das, was ich gerne gewusst hatte und (ab)zu fragen gewagt habe 😄
@vogtsburger, es kommt darauf an, was kostengünstig verwendet wird. Möglichkeiten im RZ gibt es viele, aber im Zuge der Standarisierung wird natürlich nur eine kleine Anzahl von Techniken eingesetzt.
Loten wir einmal die Rahmenbedingungen aus, da ist zunächst natürlich der Energieverbrauch, der benötigte Speicher und die darauf entfallende Abwärme. Klopfen wird das jetzt einmal auf die einzelnen Komponenten ab, je höher der Prozessor getaktet ist umso mehr Energieverbrauch und Abwärme entstehen, also wird sich für ein nicht allzu hoch getaktetes Modell entschieden. Im 2. Schritt ist die Lizenzierung zu betrachten, Kerne vs. Sockel; Windows nutzt ein Kernmodell, also Abwägen zwischen Takt und Kernen, am Ende also eine Kostenfrage. Im nächsten Schritt die Virtualisierungstechnik, wie viele Maschinen bekomme ich auf eine physische Maschine, im Verbund mit der Leistung steht am Ende die Hardware. Der Speicher (RAM) ist da von untergeordneter Bedeutung. Festplatten sind ohnehin im eigenen Bereich angesiedelt (meist SAN oder ähnliche Techniken).
Auf einem physikalischen Rechner sind nun also mehrere Server angesiedelt, der SQL Server evtl. ausgelagert (gemeinsame Nutzung durch mehrere Server), die sich um die Prozessorzeit bemühen (immer daran denken: die Prozessoren leiden meist an Langeweile). Hat man jetzt das Pech, dass auf dem physikalischen Rechner mehrere virtuelle Maschinen gut ausgelastet sind wird es schlicht langsam. Kommt das häufiger vor werden (hoffentlich) die Mechanismen zum Verschieben einzelner virtueller Maschinen eingesetzt (wie zu erwarten sind diese Funktionen natürlich kostenpflichtig zu lizenzieren).
Bei diesen Überlegungen gibt es noch einen weiteren Punkt zu berücksichtigen der da Betriebssicherheit heißt. Fällt etwas aus hat man ja nicht nur die Mitarbeiter (und den Chef) der eigenen Kanzlei am Hals sondern im Zweifel einige hundert Nutzer. Auf den Spaß kann eigentlich jeder gerne verzichten.
Am Ende steht der Gegensatz zwischen Geschwindigkeit und Sicherheit, also würde sich jeder in dieser Situation für Sicherheit entscheiden.
Das ist jetzt nur so das Grobe, die Parameter lassen sich noch wesentlich tiefer darstellen, am Ende bleibt immer eine Abwägung. Das sich dann Designfehler stärker auswirken lässt sich dann nicht mehr verbergen, DATEV hat in den Jahren mit immer höheren Leistungsanforderungen an die Hardware versucht diese Designfehler zu kaschieren, seit einiger Zeit ist aber der Endpunkt zu erkennen, die Hardware ist im Bereich der Abwägungen schon seit einiger Zeit "am Ende". Die Wärme der hochgetakteten Prozessoren ist nicht emhr so einfach abzuleiten, also mehr Kerne und kleinere Taktzahlen (siehe der Trend Richtung ARM), kleine und spezialisierte Maschinen (Docker oder Kubernates), DevOps etc.
Am Ende sind diese gehosteten Lösungen nicht sonderlich zu beschleunigen, es gibt zu viele vorgegebene Einschränkungen.
@einmalnoch schrieb:
Der Grund liegt, wie gesagt, im Kunstruktionsfehlers des AP, Filter vs. Abfrage und Views.
Deshalb kann ich das Verhalten in DATEVasp nachvollziehen, weil es eben ein Fehler in der DATEV Software / Architektur / Aufbau ist und nicht primär an Smart IT liegt. Dass in Smart IT weniger Rechenpower als in DATEVasp bereitsteht bzw. es sein könnte, je nach DATEV Konfiguration trägt natürlich nicht zu einem besseren Verhalten bei.
Aber erklärt gut, warum F5 nicht hilft, wenn DATEV hier ab und zu nur den Altzustand nochmal aktualisiert und nicht den aktuellen Istzustand (nach Mandantenwechsel) der Abfrage zu Grunde legt.