Ich wusste bis vor kurzem nicht, was ein Mainframe ist, aber ich fand das Thema interessant u. habe mal mal gegoogelt.
https://www.computerweekly.com/de/feature/Warum-die-DATEV-Datenbanken-immer-noch-auf-Mainframes-betreibt
https://www.ibm.com/case-studies/datev-systems-hardware-mainframe-cobol-tax
Datev uses IBM Z enterprise servers for new services with security, reliability and availability
Brandheiss und aktuell:
Danke @theo! Liest sich interessant. Schade, dass Andreas Bechtloff hier nicht angemeldet ist.
Andreas Bechtloff schrieb:
Unsere Mitglieder und Kunden verlassen sich darauf, dass die Anwendungen rund um die Uhr verfügbar sind.
Verlassen tun wir uns darauf aber von rund um die Uhr sind wir noch weit entfernt, wenn es einen Datenfahrplan: Verarbeitungszeiten im DATEV-Rechenzentrum gibt, DUO jeden MI gewartet werden muss und auch Bank online nachts regelmäßig aussteigt und man sich beeilen muss, wenn man etwas außerhalb der üblichen Zeiten überweisen möchte.
Heute hat DATEV festgestellt, dass SmartLogin und SmartVerify nach dem simulierten Ausfall eines Standortes tot ☠️ sind.
Andreas Bechtloff schrieb:
Des Weiteren sind die Prozesse und Systeme des Mainframes über die Jahre hinweg bis zum Maximum optimiert worden und die Menschen, die diese Plattform betreiben, sind absolute Koryphäen auf ihrem Gebiet.
Dann kann man nur hoffen, dass das Wissen von "damals" transferiert und nicht am Ende mit ins Grab genommen wird.
Aber interessant, dass man die Rechenleistung eines MainFrames anders misst, als die eines Suptercomputers dieser Welt, welche in FLOPS gemessen wird: Top500 Juni 2022: AMD krempelt die Top10 der Supercomputer um
Sonst werden wir sehen, ob sich die prognostizierten Aussagen bewahrheiten. Das Internet 🗺 vergisst nicht. DATEV weiß, wo heute überall der Schuh 👞 drückt. Liest man das Interview von computerweekly aus 2014 hat sich ja bis heute 2022 nicht arg so viel verändert. 2014 gab's schon 7 Jahre iPhone und das Modell 6 und 3 Jahre Office 365.
@metalposaunist schrieb:
[...] DATEV weiß, wo heute überall der Schuh drückt [...]
... da habe ich 'leise' Zweifel ob die Datev-Verantwortlichen das wirklich wissen
... und wenn doch : .... warum sie es so schnell vergessen oder ignorieren 😎
Es ist noch zu früh für eine Analyse, ich lese gerade noch die Kommentare. Aber ich kann schon mal feststellen, ich habe selten in einem so langen Interview c‘t so wenig gelesen. Außer zwischen den Zeilen.
Liest sich in dem verlinkten Kommentar so, als ob DATEV an altbewährtem festhält, weil es ja vor Jahrzehnten so funktioniert hat. Technisch brauchen tut man es heute mit Alternativen nicht mehr aber da DATEV eben > 50 Jahre ist und eben Produktivdaten mitnehmen muss, kann man den Mainframe wohl nicht einfach so ausschalten und was Neues nutzen, wenn REWE und LODAS heute noch auf Technologie des Mainframe setzen.
Und was im Kommentar alles automatisiert wird, damit alles ein bisschen schneller läuft und man schneller ans Ziel kommt vs. unsere tagtägliche Klickrealität 🖱🖱🖱 ohne Automatismus oder annähernde KI. Da kommen Zweifel in einem hoch 😕.
@Michael-Renz schrieb:
Ich weigere mich ernsthaft, den schwarzen Peter an dem Entwicklungsrückstand auf meine und meiner Mitarbeiter:innen Schultern abladen zu lassen.,
Hm, da bin ich vorsichtig mit Aussagen, weil wir da sicher absolute Laien im Verstehen sind aber ganz so arg weit ist der Grund dann doch nicht weg, oder?
Zitat aus Chefinformation - Preiserhöhungen, Kündigungen und Leistungsänderungen
Ich denke das ist das, was man technische Schulden nennt.
Hm, da bin ich vorsichtig mit Aussagen, weil wir da sicher absolute Laien im Verstehen sind aber ganz so arg weit ist der Grund dann doch nicht weg, oder?
Die Aussage von Herrn @Michael-Renz möchte ich unterschreiben. Für mich ist es auch eine Ausrede, Datev kann nicht so schnell, wie die Mitarbeiter und Inhaber nicht mehr mitkommen würden.
Guten Morgen !
@theo schrieb:Ich denke das ist das, was man technische Schulden nennt.
Die "technischen Schulden" sind harmlos im Vergleich zu den Ausbildungsschulden.
Der "Tunnelblick" eines modernen Softwarezusammenklickers ist eine "gesellschaftliche Schuld" des "PC", des "Personal Computers". Moderne Mausschubser denken in Programmen, die isoliert auf einer technisch völlig veralteten Daddelbüchse laufen, die völlig isoliert steht.
Richtige Systemanalytiker und Programmierer denken in Prozessen und sehen ihre Anwendung nicht als Dreh- und Angelpunkt der Welt, sondern als Komponente, die ggfs. "ACID" (atomic, coherent, isolated, durable) mit den Nachbarsystemen interagieren muß.
Richtige Systemanalytiker erkennen ihre eigenen Grenzen und frickeln, trotz ggfs. vorhandener Genialität, ihre Transaktionen nicht selbst, sondern nutzen spezialisierte Subsysteme, bspw. CICS.
Das machen die alleine schon deswegen, weil sie nicht jedes Vierteljahr einem neuen Megatrend folgen wollen und permanent alles umstellen müssen. Mag sein, daß es heute "Hyperscaler" gibt, die vergleichbar schnell und vergleichbar skalierbar sind -- aber niemals sind sie effektiver.
Im übrigen muß man sich immer fragen:
"Für welche Anwendung brauche ich welches Werkzeug ?"
Früher war das ganz klar, die DATEV hat im industriellen Rahmen Datenverarbeitung erledigt, das kann man sich vorstellen wie eine Möbelfabrik.
HEUTE hat DATEV bei allen Kunden amateurhafte "Laubsägearbeiten" installiert.
So wie Grundig damals den "HENZELMANN".
Die "Cloud-Lösungen" entstanden, indem man ganz viele kleine Heinzelmännchen in einen großen Stall sperrte. Das machte sie natürlich nicht zu einer "Cloud-Lösung", aber das ist ja nicht schlimm, denn weil niemand weiß, was "Cloiud" eigentlich ist, so weiß auch niemand, was "Cloud" nicht ist.
Wofür die DATEV heute noch richtige Datenverarbeitung mit Konzepten benötgt ?
Ich nehme einmal schwer an, für die unmittelbare Transaktionsverarbeitung zwischen RZ und Institutionen wie Finanzverwaltung, Versicherungen, Arbeitsamt etc. pp..
Es wird noch lange dauern, bis irgendwann jemand begreift, daß man mt zwanzig Millionen Matchbox-LKW keinen Umzug machen kann.
Der Artikel vom 22.10. wirkt schlecht recherchiert..
Die Abrechnungen erfolgen zu einem grossen Teil auch mit LuG und Lohnabrechnungen werden zudem über den ganzen Monat verteilt abgerechnet (natürlich mit Spitzen).
Ja, klar.. da müssen Beitragsnachweise, div. Anmeldungen usw verarbeitet werden..
aber letztlich wird da von wenigen Millionen Datensätzen gesprochen.. bei meinetwegen Fiducia sind es Milliarden:
http://fiduciagad.oew.de/rechenzentren.html
Ob man für das überschaubare Volumen Mainframes und das KnowHow vorhalten muss…
Vergleiche mit Mips zu finden ist in jedem Fall recht abenteuerlich..
bei Supercomputern vergleicht man sich mit Flops.
Auch Interessant:
Moin!
@Gelöschter Nutzer schrieb:
Ob man für das überschaubare Volumen Mainframes und das KnowHow vorhalten muss…
Das Mainframe - know-how ist recht überschaubar im Vergleich zu dem, was man zur Beherrschung von Monströsitäten wie "Kubernetes" benötigt.
Es muß auch nicht an jedem Monatsersten aktualisiert werden.
Hinzu kommt:
Der 3270-Bildschirm ist quasi das "Fliegengitter", das lästige Schmeißfliegen daran hindert, in der ernsthaften Datenverarbeitung ihre klebrigen Eier zu legen.
Wer sich an einen Mainframe setzt, will arbeiten und nicht spielen.
Der Mainframe, richtig eingesetzt, schlägt auch in Bezug auf Kisteneffektivität und Nachhaltigkeit die modernen Pizzaschachtelsilos um Längen.
Vergleiche mit Mips zu finden ist in jedem Fall recht abenteuerlich..
bei Supercomputern vergleicht man sich mit Flops.
"Supercomputer" ist etwas ganz anderes - da interessiert Rechenleistung.
Die ist beim Mainframe sekundär.
Der Mainframe ist gefühlt schon mit 200 aktiven Jobs langsam -- er wird aber nicht langsamer, wenn weitere 20.000 dazukommen.
Auch Interessant:
Es haben schon viele versucht, Mainframe-Systeme "in die Cloud zu migrieren".
Hinterher hatte der Kunde oft ein teureres, unzuverlässiges Gesamtsystem und eine explosionsartig angewachsene Servicemannschaft. Da fällt mir gerade Liqui Moly ein.
Nebenher:
Alles redet von "Energieeinsparung". Ich würde einmal sagen, bei Einsatz moderner Energievernichter wie JAVA und Wirrtuaisierung ist der zwischen fünf und zehn mal so hoch. IT-Strom ist noch viel, viel zu billig.
Wenn man über Mainframes spricht, muß man über die Möglichkeiten sprechen, die sich mit den speziellen Subsystem ergeben, ganz prominent wären da Transaktionsmonitore wie CICS zu nennen.
Das Interview ist doch nur ein Teil des Marketings für die Vorstellung der neuen Mainframe Baureihe LinuxONE Emperor 4 von IBM. Nicht mehr und nicht weniger.
Interessant sind die Aussagen in dem Interview unter anderen Aspekten, nämlich die Standort- und Zielbestimmung aus DATEV Sicht.
@Koppelfeldwird uns sicher erklären können warum IBM nun auf das von ihm so ungeliebtes Linux setzt und kein so tolles UNIX propagiert.
@Koppelfeldwird uns auch sicher erklären können wie die Systemanalytiker es hinbekommen wollen das 100 Tausende gleichzeitig auf einem Mainframe im Dialogbetrieb arbeiten können.
Warum ist denn die DATEV Software so "amateurhaft" auf die PCs gewandert? DATEV hat doch die propagierten "Superfachleute".
Eventuell sollten sich die selbsternannten Rechenzentrumsfachleute mal so fragen, wie es betriebswirtschaftlich und organisatorisch in einer Kanzlei aussieht. Welche Anforderungen die EDV erfüllen muss um effizient und kostengünstig die gestellten Aufgaben zu erfüllen. EDV ist nämlich kein Selbstzweck.
Vielleicht auch die Sinnhaftigkeit eines Prozesses überdenken, ein schlechter Prozess bleibt ein schlechter Prozess, egal ob er auf einem PC oder einem Mainframe ausgeführt wird. Eventuell wird der schlechte Prozess auf einem Mainframe noch schlechter weil die komplexen Voraussetzungen schwer umsetzbar sind. Umgekehrt kann auch einem guten Mainframeprozess aus sauschlechter PC Prozess werden weil viele Abläufe anders gedacht werden müssen.
Der Titel "Mainframe: wir müssen ihn nicht mehr betreiben, aber wir wollen" sagt doch schon aus, dass DATEV hier in der Vergangenheit bleiben will. So gesehen ergibt sich auch der Sinn in der DATEV Strategie, Vorsysteme ersetzen den Lochstreifen, DATEV gibt die Erfassungssysteme an Drittanbieter ab und verarbeitet nur noch. Ob das Zukunft hat vermag ich nicht zu beurteilen.
Moinsen !
@einmalnoch schrieb:
... einen vergnüglichen Beitrag. MMD.
Das Interview ist doch nur ein Teil des Marketings für die Vorstellung der neuen Mainframe Baureihe LinuxONE Emperor 4 von IBM. Nicht mehr und nicht weniger.
Ach Gottchen, ja. Und ich habe mich schon gefragt, was die unsinngen Linux-Hymnen sollten.
@Koppelfeldwird uns sicher erklären können warum IBM nun auf das von ihm so ungeliebtes Linux setzt und kein so tolles UNIX propagiert.
Das kann ich allerdings.
1. HAT IBM ein erstklassiges UNIX, welches vor allen Dingen auf die exzellente Hardware abgestimmt ist, die IBM noch liefert. Aber AIX gibt es nicht auf dem Schulhof.
Dumm nur: AIX kommt aus Austin, Texas. MVS (oder später halt z/OS) kommt aus Poughkeepsie, NY. Die AIXer tragen robuste Kleidung, reiten i.d.R. und essen köstliche Steaks. Das NY - Team ist ... sehr anders. Die HASSEN Texaner.
So, wie ein anständiger Bayer Berliner verachtet.
Dann muß man sagen: Es gibt einen bekannten 'IBM distinguished engineer', Karl-Heinz Strassemeyer. Der saß in Böblingen im IBM-Halbleiterlabor. Seine sicherlich größte Tat war die 'flächendeckende' Abschaffung der NMOS-Infrastruktur mit stromfressenen Pull-up - Widerständen zugunsten des heute üblichen CMOS.
Er war lange Zeit 'distinguished engineer' und dein Wort hatte ein enormes Gewicht.
Habe ihn zwar lange nicht mehr gesehen, aber mehrere Male mit ihm gearbeitet.
Ein intelligenter, wacher, sozialer Mensch, der mir allerdings ein bißchen zu emphatisch war in Bezug auf Linux. Der und auch noch einige andere begabte Entwickler, bspw. Bastian Blank, portierten u.a. Debian für den Betrieb auf einer z/OS - Partition.
Die kommerziellen "Pilotprojekte", von denen ich gehört habe, sind alle gescheitert.
Wie sehr die Hosties Linux lieben, sieht man daran, daß auch heute noch ...
...
...
OS/2
als Systemkonsole verwendet wird.
Die Konzernstrategie der IBM wird aber weder in Austin noch in Poughkeepsie gemacht, und weder Sammy noch Ginny konnten den Konzern vom Weg in die Bedeutungslosigkeit abbringen. Schade.
@Koppelfeldwird uns auch sicher erklären können wie die Systemanalytiker es hinbekommen wollen das 100 Tausende gleichzeitig auf einem Mainframe im Dialogbetrieb arbeiten können.
So, wie das seit jeher gemacht wird mit einem Mainframe?
Unser größter Kunde hat konzernweit "nur" 8.000 User, die arbeiten sämtlich im Dialog auf einer uralten Z990.
Die Sysplex-Architektur mit ihrem linear adressierbaren Speicher kann schon Erstaunliches leisten.
Warum ist denn die DATEV Software so "amateurhaft" auf die PCs gewandert? DATEV hat doch die propagierten "Superfachleute".
Waren das die, die ihre Endkunden mit MS-DOS, OS/2, Novell und "Windows95" brglückten? Mit Btrieve?
Eventuell sollten sich die selbsternannten Rechenzentrumsfachleute mal so fragen, wie es betriebswirtschaftlich und organisatorisch in einer Kanzlei aussieht. Welche Anforderungen die EDV erfüllen muss um effizient und kostengünstig die gestellten Aufgaben zu erfüllen. EDV ist nämlich kein Selbstzweck.
In der Tat.
Hallo, aus gegebenem Anlaß nachgetragen,
ein Kollege macht mir gern den Vorwurf des "Konservativen", was ich beleidiigend finde, denn wenn man am Abgrund steht, ist jeder Schritt zurück ein Schritt in die richtige Richtung. Da bin ich doch gerne Reaktionär.
Aber:
@einmalnoch schrieb:Der Titel "Mainframe: wir müssen ihn nicht mehr betreiben, aber wir wollen" sagt doch schon aus, dass DATEV hier in der Vergangenheit bleiben will. So gesehen ergibt sich auch der Sinn in der DATEV Strategie, Vorsysteme ersetzen den Lochstreifen, DATEV gibt die Erfassungssysteme an Drittanbieter ab und verarbeitet nur noch. Ob das Zukunft hat vermag ich nicht zu beurteilen.
Es wäre m.E. schön, wenn sich DATEV noch in dieser Vergangenheit befände.
Mit den "Vorsystemen" habe ich früher als Kind gearbeitet, bspw. auf einer Olivetti A5 und einer KIENZLE 9027. Und einer Anbindung mit 1.200 Baud, machte etwa 145 Bytes/s. Erstaunlich, wie effektiv die Dialoganwendungen waren !
Das grundsätzliche Schema, "Erfassung lokal, Verarbeitung zentral" ist nun einmal wesentlich effektiver als eine "hybrid-Lösung". Eine "Hybrid-Lösung", deren erhebliche Nachteile sich ja schon jetzt herauskristallisieren: Nehmen wir nur die Integration einer Telephonielösung oder Mailunterstützung, idealerweise legal und on top sogar zuverlässig und sicher.
1990 hatten wir schon einmal eine "Cloud-Welle", die sich damals "Outsourcing" nannte. Alles ist krachend gescheitert. "Insourcing" dann der Trend ab 1996.
Die Kollateralschäden waren beträchtlich.
Schauen Sie sich an, was SAP mit "Fiori" gebaut hat:
- betriebssystemunabhängig
- multiplattformfähig
- schnell
- flexibel
- offen (SAP war so klug, einen offenen Standard zu schaffen)
- sicher
Da könnte sich DATEV 'reinhängen und fürderhin in Nürnberg nur noch die Fachprogramme pflegen, mit einer Batterie von Interfacerechnern unter AIX vor den verfügbar ausgeführten Mainframes.
Paradise regained.
p.s.:
Wie kommen Sie darauf, daß ich klassische TK-Anlagen erhaltenswert finde ???
Die Idee, Asterisk niederlassungsübergreifend einzusetzen, hatten wir früher als die meisten Marktbegleiter. Aber bei uns laufen die TK-Anlagen natürlich auf großen Eisen, wenn es unbedingt sein muß, auch unter Linux. Und die sind bei uns natürlich in die Benutzerverwaltung der Betriebssysteme integriert, d.h., wer auf von uns konfigurierten Systemen einen Account hat, der hat auch Telephon.
Dann natürlich auch mit eingebauter CTI direkt aus der jeder Anwendung und Protokollierung im CRM.
Unverbastelbar, es ist einfach da.
Das Schlimmste, was man tun kann, ist dem Anwender "Optionen" zu geben.
Der soll seine Gedanken auf seine Arbeit verwenden und nicht auf die "Ausschmückung" seines "PC"s. Zuhause kann er dann seine Daddelkiste tunen.
Will sagen: Mit der "Zentralisierung" geht auch eine Vereinfachung und Effektivitätssteigerung einher.
Immer noch online