der Fileserver läuft seit 2017 auf Server 2016. Keine Probleme bisher (Fujtsu-Kiste).
Ansonsten überprüfe ich meine Ergebnisse auch.. fix in rewe, dms, lohn- läuft, passt.
Hat auch etwas gesauert, bis es so lief.. als ich es übernommen hatte konnte ich nicht bequem von zuhause installieren und es hat es in summe auch wesentlich länger gedauert..
Ist die Pflege der Wts so zeitraubend gewesen oder hardware schwach? wir sind seit 2011 oder so auf ssd. das hat natürlich was rausgehauen..
@Nutzer_8888 schrieb:Das spricht nun zwar für eine erhebliche Ineffizienz meinerseits, trotzdem gut, dass hiermit mein großzügiger Wert eingefangen wird. Dafür vielen Dank!
Selbst wenn ich von gewissen schizophrenen Überwachungsschritten und der sequenziellen Installation absehen würde, wären 3 h pro Monat für mich zu wenig.
10 - 15 Stunden brauche ich auch. Wegen der "kleinen Zwischenfälle"
- wir kontrollieren auch gerne einmal die Firmwarestände von Netzwerkkarte, BMC, UEFI, RAID, Netzwerkkarte. Allein immer die Besorgerei kostet Zeit.
- jedesmal vor einem Update machen wir eine Image-Sicherung per LTO-Band. Dauert.
- 20 Stunden allein verbrauchte ich für eine "Kyocera-Treibersafari". Denn der Standardtreiber verfälschte Zahlen. KEIN WITZ.
- "Office" braucht extra-updates. Gottseidank habe ich nirgendwo "Exchange", ansonsten es noch schlimmer würde.
- Etliche HP-Drucker brauchten wichtige Firmware-Updates.
- Router / VPN-Updates brauchen auch so ihre Zeit. Mit kleinen Nebenwirkunngen um 07:00h morgens: "Wir können vom Homeoffice aus nicht arbeiten". Stellt sich heraus, daß nach einem Update das DHCP-Relay nicht mehr funktioniert.
- DATEV - Update legt sich auf die Nase. Support (1st Level) kann nicht lösen, 2nd Level schon: Fehler in der DFL. Wüstes Registry-Gepatche.
- Satte Performance-Probleme mit "VIWAS", was in Wahrheit ein Schlangenöl von McAffe ist. Installiert DATEV offenbar mit. Ungefragt.
- Naja, und dann gab es ja noch eine fette pre-auth-remote code execution - Lücke.
- Die armen Schweine mit "Exchange" hatten noch mehr Ärger, weil die Update-Pakete fehlerhaft waren und man gar nicht wußte, ob die dringenden Updates nun installiert wurden oder nicht.
Das ist das, was mir so ganz spontan einfällt. Das war alles innerhalb eines halben Jahres.
Sorry, ich kann nur langsam. Dafür haben wir ja auch den doppelten Stundensatz.
Firmware -> Serverview?
Ich mach nur die SQL-Onlinesicherung..
Kyocera? Nichts von mitbekommen...
Office? Geht mit über Windows?
HP haben wir nicht (mehr)
VIWAS - Ja, hat genervt. Mit Managementconsole ging das aber..
Log4j hat mich am meisten genervt.. alles schön dokumentieren, dann ist auch der DSB zufrieden
Exchange haben wir auch nicht..
Das sind auch die Ausnahmesituationen die mal mehr oder weniger auftreten..
In der Vergleichskalkulation OnPremise zu DatevASP habe ich auch 100 Stunden p.a. für mich angesetzt...
in die Exel kann ich auch 200€ Stundensatz reinkloppen und fahre immer noch gut und verzehre dabei nichtmal Kanzleiumsatz..
"Witzige" Probleme hatte ich auch schon.. aber den Kelch versuche ich immer möglichst schnell an DATEV weiterzureichen und auf schnelle Lösung zu hoffen. Mir egal ob Level 1,2,3 Support..
... ich stelle mal eine (vielleicht etwas 'gewagte') These auf :
LANs von DATEVasp-, PARTNERasp- und SmartIT-Kanzleien werden lokal schlechter 'gewartet' als OnPremises-Kanzleien !
(übrigens, ich selbst wäre in diesem Fall ein "Ja"-Sager)
@vogtsburger schrieb:
... ich stelle mal eine (vielleicht etwas 'gewagte') These auf :
LANs von DATEVasp-, PARTNERasp- und SmartIT-Kanzleien werden lokal schlechter 'gewartet' als OnPremises-Kanzleien !
- ja
- nein
- vielleicht
- ... wie kommt man bloß auf solche Gedanken ? 😎
(übrigens, ich selbst wäre in diesem Fall ein "Ja"-Sager)
Definitiv: Nein, zumindest nicht bei uns...
Beste Grüße
Christian Ockenfels
Bei uns auch: NEIN
Die Wahrheit wird im Schnitt dazwischen mit Tendenz zu "nein" liegen (bei denen, die hier schreiben, wohl generell "nein"?). Das lokale Netzwerk kann halt einfacher gestaltet sein, wobei kein produktives Server-System verwaltet, upgedated und gesichert werden muss.
Bei uns, ist das LAN genauso gut oder auch schlecht gewartet, wie zu OnPremises-Zeiten, nur dass jetzt kein VPN-Router mehr von außen erreichbar ist (nun alle äußeren Ports zu -> sicherer) und bei uns (6 Nutzer) neben den Druckern noch eine neue NAS verfügbar ist (dort aber keine geschäftskritischen Daten - dient im Wesentlichen als Zwischenspeicher für Scans).
Und ich habe alles Lokale in den eigenen Händen. In meinen Augen ist ein hier genügendes einfacheres Netzwerk immer auch einfacher wartbar und damit letztlich wohl sicherer.
Einige Wartungs-Arbeit mit dem lokalen Netz verbleibt natürlich, aber das produktive System ist "safe" im Rahmen des technisch möglichen (gemäß Datev-Beschreibung). OnPremise geht zwar sicher performanter, aber eine vergleichbare Absicherung wäre kostentechnisch (und wenn man sich so manche Enterprise-Software anschaut ggf. auch technisch) für uns kaum effizient umsetzbar (Stichwort: Testsystem, Redundante Server ...).
Auch ohne das lokale Netzwerk oder bei bestimmten Störungen könnte man notfalls kurzfristig von anderen Orten oder über das mobile Netz des Handys arbeiten...
Häufig kann der ASP-Anbieter keine lokalen IT-Themen behandeln (DATEVasp/SmartIT) oder möchte es nicht (gibt da einige PARTNERasp-Anbieter). Durch Multi-Cloud-Themen (z. B. MS 365) und hybrides Arbeiten bekommen die Themen LAN/WLAN, Client-Wartung (Sicherheit, Update-Management, Inventarisierung, Virenschutz und und und) und IT-Security im allgemeinen vor Ort aber wieder eine neue Bedeutung.
Als wir unser Portfolio für die Gründung zusammengestellt haben, haben wir daher aus diesem Grund entgegen dem Trend gerade in dieses Thema investiert.
So durften wir z. B. bei einigen DATEVasp-Kanzleien die Betreuung des LAN übernehmen, haben ein WLAN-Konzept erarbeitet, die Rechnerlandschaft inventarisiert, diese außerdem in unsere Wartung übernommen sowie eine ordentliche Dokumentation erstellt. Alles als Managed Service, also quasi "ein kleines ASP für die lokale IT"; mit dem Unterschied, dass die IT nicht im RZ, sondern beim Kunden steht. DATEV profitiert nun davon, dass es bei lokalen Problemen einen kompetenten Ansprechpartner gibt und lokale IT-Probleme nicht mehr in der DATEVasp-Hotline landen.
Die entscheidende Frage ist wohl eher "Gibt es jemanden vor Ort, der Lust und vor allem Zeit hat, sich um die Serverwartung zu kümmern?"
Wenn ja, ist man lokal tendenziell günstiger, aber auch weniger performant, wenn nein, macht man mit ASP nichts falsch. Egal ob Partner oder DATEV. Auf 10 Jahre kann man sich das wundervoll schönrechnen, mit Zeit und Strom und so, auf dass es keinen echten Unterschied mehr macht.
Partner ASP ist tendenziell ein paar Euro günstiger, dafür tendenziell in der Performance nur bei "99 von 100" und eindeutig vergänglicher als unsere Genossenschaft.
Einfache Anbindung aller Mandanten ans DMS mit meineKanzlei.io
Kollegenseminar buchen: Next Level Digitalisierung mit DATEV
"Wenn ja, ist man lokal tendenziell günstiger, aber auch weniger performant"?
eher umgekehrt.. was mich etwas erschrocken hat.
https://www.datev-community.de/t5/Technisches-zu-Hardware/Hardware-SmartIT/m-p/261083#M3544
... nach der Arbeit kommt das Vergnügen ...
... vielleicht haben IT-Aficionados in einer DATEVasp-, SmartIT- oder PARTNERasp-Kanzlei (Mitarbeiter oder Inhaber) ja sogar mehr Zeit und Lust, sich um die 'Schönheit' des eigenen LANs zu kümmern, wenn das 'Pflichtprogramm' (Datev-Aktualisierungen, Windows-Updates, Datev-Netzwerk) schon woanders erledigt wird
... falls aber niemand in der Kanzlei das benötigte Wissen hat, um in Eigenregie ein LAN einzurichten und/oder zu 'pflegen', dann wird die DATEVasp, PARTNERasp oder SmartIT-Lösung vermutlich gegenüber der OnPremises-Lösung 'punkten'
... ich kenne SmartIT-Kanzleien, die in der Datev-Welt nichts mehr machen, weil sie nicht müssen und die im eigenen LAN nichts mehr machen, weil 'nichts Schlimmes passieren kann' 😁
Niemand hat hier bisher etwas von SmartIT erwähnt 😉
Einfache Anbindung aller Mandanten ans DMS mit meineKanzlei.io
Kollegenseminar buchen: Next Level Digitalisierung mit DATEV
Doch, unter anderem ich, weil wir in SmartIT sind! Es gibt da schon viele Gemeinsamkeiten, wenngleich ASP flexibler und damit komplexer - auch lokal - sein kann.
Nagut, zu salopp formuliert: Der Thread Ersteller fragte zu DATEV ASP vs. PartnerASP, nur darauf bezogen sich meine Performance Aussagen. Dass SmartIT da in einer anderen Liga unterwegs ist, steht außer Frage - ist auch am Preis zu erkennen...
Einfache Anbindung aller Mandanten ans DMS mit meineKanzlei.io
Kollegenseminar buchen: Next Level Digitalisierung mit DATEV
Sicher kann nicht alles in einen Topf geworfen werden, aber die grundsätzlichen Betrachtungen sind letztlich gleich. Die Initialfrage war ja eigentlich auch, warum soviel Negatives über ASP berichtet wird.
Dennoch, denke ich, sind viele interessante Aspekte zum Vorschein gekommen, die natürlich mit der Initialfrage nur indirekt tun hatten. Nun stehen hier viele Details, welche die Beurteilung und Entscheidung zu einem gehosteten Datev unterstützen.
Nicht zu vergessen, dass in der Regel niemand einen Thread eröffnet und schreibt: "Ich wollte euch alle nur mal eben darüber informieren, dass ich mit XYZ-ASP super zufrieden bin!"
Aus eigener Erfahrung weiß ich: Zufriedene Kunden, sind leise - unzufriedene Kunden sind laut.
in dem Thread wird auch ASP erwähnt.
... habe so meine leisen Zweifel, ob Neu-Interessenten für die Cloud-Lösungen den genauen (technischen) Unterschied zwischen DatevASP und SmartIT kennen.
Den preislichen Unterschied kennt man am besser 😉
... aber ansonsten
"... das ist alles nur ge-Cloud ..." (oder so ähnlich)
... mit der Frage nach dem technischen Unterschied könnte man sicher viele Anwender von DATEVasp und SmartIT in 'Verlegenheit' bringen, behaupte ich
... die Kanzleien mit wenigen Datev-Arbeitsplätzen haben ja noch die freie Wahl zwischen ASP und SmartIT, bei den größeren und großen Kanzleien kommt aber nur noch DATEVasp oder PARTNERasp infrage. Dort erübrigt sich ein Vergleich mit SmartIT
... mir stellt sich die Frage, warum man von Seiten der Datev nicht ganz auf SmartIT verzichtet und stattdessen für kleine Kanzleien ein 'Schmalspur-ASP' anbietet, mit reduziertem Funktionsumfang, aber vergleichbarer Datensicherheit
Wo sehen Sie die Datensicherheit bei SmartIT eingeschränkt gegenüber ASP?
SmartIT ist doch quasi ein minimalisiertes und stark standardisiertes ASP (gemäß Google: Application Service Provider;, hier aber wohl oft mit dem konkreten Datev-ASP-Paket mit lokalem von Datev administrierten VPN-Router synonym verwendet)? Abstriche bei der Sicherheit (zumindest innerhalb der Grenzen des gehosteten Produktes) sind mir derzeit nicht bekannt - im Gegenteil, durch die Einschränkungen bestehen doch eher weniger Angriffsvektoren?!
... ich hatte mich vor ca 2 Jahren mit dem Vergleich "SmartIT vs. DATEVasp" beschäftigt, allerdings nicht für eigenen Bedarf, sondern als Hilfestellung für eine kleine Kanzlei, die aus technischen Gründen 'plötzlich' gezwungen war umzusteigen.
Damals hatte mich das Datensicherungskonzept bei SmartIT sehr irritiert und gestört.
Die Datensicherung war imagebasiert und eine Rücksicherung nur komplett und bis zu 3 Generationen (drei Tage) möglich.
Inzwischen ist die Datensicherung offenbar dateibasiert und eine Rücksicherung wäre (je nach gewählter Option) bis zu 30 Tagen möglich.
Es gab aber noch diverse andere Punkte, worin sich SmartIT und DATEVasp stark unterschieden und immer noch unterscheiden
Für neue Interessenten (Kanzleien mit wenigen Arbeitsplätzen) wird vermutlich der Preisunterschied das Hauptargument für SmartIT sein.
... aber nur IT-Fachleute werden wohl erkennen, dass SmartIT auch technisch in einer anderen "Liga" spielt.
Gibt es eigentlich auch 'unblutige' Upgrade- und Downgrade-Möglichkeiten, falls eine Kanzlei wächst oder sich verkleinert ?
Gibt es eigentlich auch 'unblutige' Upgrade- und Downgrade-Möglichkeiten, falls eine Kanzlei wächst oder sich verkleinert ?
Nein. Es wird ein neues System eingerichtet.
Wenn ich im Geiger ASP sowas sehe,
heisst das dann, das da wirklich ein Xeon Gold 6142 werkelt oder heisst das, dass da ein Xeon Gold 6142 virtualisiert wird u. es Bare Metal eine ganz andere CPU sein kann?
Behaupte, dass es der im Host verbaute Prozessortyp ist (bei unseren VMs ist da immer eine Identität - VMWare). Keine Ahnung, ob die Virtualisierung eines Prozessors performancetechnisch sinnvoll ist?
Im Sinne der Datev-Empfehlungen also eher im unteren Bereich bzgl. des wohl so wichtigen single thread ratings (ca. 2000) und m.E. im unteren Bereich der Datev-Empfehlungen von 2017 ...
Hier würde ich auch mal nachfragen, wie man auf Seiten des Hosters mit der Wartung der Hardware umgeht und welcher Performance-Anspruch dabei berücksichtigt wird.
netzwerkkarten kann man simulieren, cpus nicht?!
@Gelöschter Nutzer schrieb:netzwerkkarten kann man simulieren, cpus nicht?!
Hmmmmm. Da kriege ich wieder Ärger, wenn ich das beantworte. Also bitte, TRIGGERWARNUNG: Grob vereinfachter technischer Zusammenhang.
Die Idee mit dem Mikrorozessor kann man sich ja so vorstellen wie so eine automatische Orgel:
Genau dieses fahrbare Ding, "De Korsikaan", habe ich einmal in Neuwied gesehen, die Musik war fast so kläglich wie Igor Lewits Versuch über die Waldsteinsonate, aber das Innenleben sah interessant aus:
Es gab dort einen "Lochkartenleser", für jede der Orgelpfeifen gab es eine Spalte und die überdimensionalen "Lochkarten" waren zieharmonikaartig zusammengefaltet und mit Scharnieren verbunden. Setzte man das ganze in Betrieb, mit einem konstanten Vorschub, dann spielte die Orgel ein durchaus kompliziertes Stück.
DAS war die Grundidee eines Mikroprozessors: Lese einen Befehl aus dem Speicher aus, bringe ihn zur Ausführung und lese dann den nächsten Befehl. So funktionierte schon der Intel 8008. Habe ich noch dran gearbeitet, KIENZLE 1100, unter anderem ein Erfassungsprogramm für den DATEV-Wettbewerber ZBL, "Zentralbüro für Lochkartenverarbeitung". Das erwähne ich, um darzustellen, daß diese Prozessoren schon absolut praxistauglich waren. Es war aber schon so, daß die Damen in der Pilotkanzlei bemängelten, daß sie schneller seien als der "Buchungsapparat". Allerdings kannten jene die "DATEV Komforterfassung" noch nicht, die um den Faktor 10 langsamer ist.
Gut, INTEL muß die Beschwerden der Damen aus Menden mitbekommen haben und brachte neue Prozessoren mit zwei genialen Änderungen:
- Der Hauptspeicher, seinerzeit typischerweise Magnetkernspeicher, war schweinelahm und begrenzte natürlich die Geschwindigkeit der CPU. Ohne Kommandos keine Aktion. Also baute INTEL eine 'prefetch queue' ein, die Befehle "auf Vorrat" abholte. So konnte nachgeladen werden, während eine zeitaufwendige Operation durchgeführt wurde. Das war der erste Schritt in die "Virtualisierung", der so seine Tücken hatte: Wenn nämlich die CPU an die Speicherstellen schrieb, die sie vorher in der Warteschlange hatte, dann waren diese Operationen faktisch unwirksam und es gab, abhängig vom Sonnenstand und der Bestückung des Computers, fiese und heimtückische Fehler.
- Man erfand den 'CISC' - Befehlssatz, es gab also "Metainstruktionen", die gleich ein ganzes Programm ausführten, zum Beispiel "CMPSB": Da wurden zwei Zeichenketten miteinander verglichen, und wenn noch das REP-Präfix gesetzt war, dann so lange, bis die Zeichenketten differierten. Anstatt also den Vergleich mit einer Schleife selbst zu programmieren, delegierte man an dem Mikroprozessor.
'CISC' wurde in den 90ern von "proaktiven" modernen "IT-Pros" fürchterlich verschriien, aber diese Species erkennt eine geniale Lösung nicht einmal, wenn sie ihr auf den Fuß fällt.
Zusammenfassung: Schon ein "Intel 8086" war sehr komplex und bestand nicht nur aus Hardware, sondern aus Software. Die war allerdings noch "fest verdrahtet". Richtig verstehen konnte einen solchen Prozessor nur, wer mit ihm auf Augenhöhe kommunizieren konnte, sprich: IN ASSEMBLER. Und wer das Reich des Computers nicht betritt als Assemblerprogrammierer, der wird niemals hineinkommen.
In den Worten des Herrn "Sully" Sulenberger, der gegen jede "Automatik" einen havarierten Jet im Hudson notlandete und allen Passagieren das Leben rettete, obwohl das wegen der unterhalb der Tragflächen angeordneten Triebwerke theoretisch völlig unmöglich war:
"The more sophisticated a modern aircraft is, the more essential are basic flying skills".
Nun wurde der Hauptspeicher rasend schnell, aber die Recheneinheit blieb langsam. Und da kam die nächste geniale Idee, die "Pipeline": Ein Befehl wurde in mehreren Stufen bearbeitet, buchstäblich wie am Fließband. Dadurch wurde die Bearbeitung EINES Befehls langsamer, aber während der Bearbeitung rückten die Folgebefehle quasi auf. Statt also 5 bis 40 Taktzyklen pro Befehl brauchten professionelle CPUs (also jetzt nicht die von Intel) typischerweise nur noch einen einzigen. Das haute 'rein.
Bloß: Im Unterschied zur oben angesprochenen Drehorgel müssen innerhalb des "Musikstückes" abhängige Sprünge innerhalb desselben durchgeführt werden. Wenn jetzt die ganze "Pipeline" gut gefüllt ist, dann heißt es bei einem Sprung: "Alles verwerfen und zurück auf Start". Folge: Ein sattes "Loch" von 40 und mehr Taktzyklen. Man konnte mit "geschickter" Programmierung die Performance eines "486er" regelrecht hinrichten. Es reichte allerdings auch die Installation der DATEV-Suite.
So wurde dann die "Nebenläufigkeit" erfunden, sprich, es gab 'mal mindestens zwei Pipelines, die spekulativ, vor einer "Weggabelung", beide Wege ausführten. Ein Wahnsinns-Klapperatismus.
BIS HEUTE ist es nicht möglich, beispielsweise für vier Aufzüge eine gemeinsame Steuerung zu schreiben, die die Transportzeiten für die Fahrgäste optimiert. Wer einmal in einem Krankenhaus war, der weiß, was ich meine. WIE KOMPLEX ist dann ein System, welches simultan mit zwei Instruktionsströmen jongliert?
Man redet von einem "Superskalar- / Superpipelining - System".
Dann kamen ganz schlaue Leute auf die Idee, noch mehr Pipelines einzubauen und den Prozessor
quasi "in der Hardware" zu wirrtualisieren, sodaß er gleich zwei (bei IBM mittlerweile 😎 unabhängige Programme gleichzeitig ausführen konnte. Das konnte nicht gutgehen:
"Spectre resp. Meltdown" nutzen die Technik der Nebenläufigkeit aus, um Schadcode auszuführen.
Die Lösung der "Communtiy": Weitgehendes Abschalten der elaborierten Funktionen. Etwa 40% Performance kostet der "Sicherheitspatch" bei Intel und die CPUs überhitzten. Wenn Sie also einen schnellen Intel-Prozessor haben wollen, dann deaktivieren Sie auf jeden Fall die entsprechenden Patches.
Damit man überhaupt eine solche Wahnsinnsmaschine (die heute aus mehr als 2 BILLIONEN = 2.000.000.000.000 Transistoren besteht) warten konnte, baute man die Funktionen der Rechnerkerne zurück und lagerte den komplexen Klapperatismus als sogenannten "Microcode" in Software aus.
Typischerweise bekommt ein Intel-Prozessor vom "BIOS" oder vom "EFI" gegebenenfalls einen Update.
Der Prozessor stellt sich also bereits einer "VMWare" als Gruppe von Prozessoren dar, und abgesehen davon tut er das noch "verkleidet" als "amd64". Tja, und auf einem Sockel befinden sich heute ACHT Prozessoren. Und meistens gibt es noch zwei oder vier Sockel pro Rechner.
Dagegen sind unsere vier Katzen richtig pflegeleicht, nicht einmal der berühmte "Sack Flöhe" kommt auch nur in die Nähe dieser Komplexitätshölle.
In Beantwortung Ihrer Frage: Bereits die "Hardware" virtualisiert Prozessoren, und wenn Sie nur einen Prozessor erkennen können, dann sollten Sie beim Anbieter rückfragen. Insbesondere ist es wünschenswert, daß Sie zwei Prozessoren unterschiedlicher NUMA-Knoten zugewiesen bekommen, weil bei der Intel-Architektur die Speicherbausteine fest den Sockeln zugeordnet sind.
Persönlich empfinde ich Ekel und Abscheu vor dem INTEL - Monopolzeugs, aber ich weiß, daß man bei professionellen Plattformen enorme Prformancegewinne erzielen kann, wenn man Gast-VMs ganz gezielt CPUs und Ressourcen zuweist.
Da brauchen Sie aber einen Top-Partner. Der Metallposaunist, dem ich es zutraue, hat im Moment "Sendepause" angekündigt.
So, in eigener Sache: Als ich mit dem Schreiben begann, habe ich nicht einmal geahnt, wie umfassend eine erklärende Antwort sein könnte. Beim Schreiben ist meine ganze berufliche Laufbahn an mir vorbeigezogen, Eigentlich müßte ich das alles löschen und neuschreiben, aber lassen Sie mir die Sentimentalität: Schon bei meinem ersten Auftrag, den ich 1976 als 16jähriger Junge bekam, habe ich darunter gelitten, nicht die Performance abliefern zu können, die der Kunde sich vorgestellt hatte.
Und immer wieder mußte ich feststellen: "Die Software wird schneller langsam als die Hardware schneller wird" (N. Wirth).
Oder:
https://kalliope.org/da/text/goethe2000010804
jagut, sie meinen HT. Aber kann man auf Windows-Plattformen Prozessoren virtualisieren bzw. im Taksmanager mit falscher Bezeichnung darstellen (ohne tiefgreifende Kenntnisse)?
@Gelöschter Nutzer schrieb:jagut, sie meinen HT. Aber kann man auf Windows-Plattformen Prozessoren virtualisieren bzw. im Taksmanager mit falscher Bezeichnung darstellen (ohne tiefgreifende Kenntnisse)?
Unter "Windows" kenne ich zwei Darstellungen: Eine faßt alle CPSs zusammen,
Taskmanager -> "Leistung".
Dort (also im Fenster "Leistung") können Sie aber auch den "Ressourcenmanager" aufrufen und dort sehen Sie, womit "Windows" arbeitet.
boomboom wollte nach meinem Verständnis primär wissen, ob mit gängiger Hardware und verbreiteter Virtualisierungssoftware (wie z.B. Hyper-V oder VMWare) den virtuellen Maschinen eine andere CPU z.B. XEON-ABC zugeordnet werden kann, als im Host physikalisch werkelt (zum Beispiel eine AMD oder was auch immer ...).
Die zugeordnete CPU wird in der Regel im TaskManager angezeigt. Möglicherweise besteht auch die Möglichkeit diese Anzeige zu manipulieren, was in einem seriösen Umfeld aber - hoffentlich - auszuschließen ist.
@Koppelfeld: Möchte hiermit weder die Prozessoren noch die Virtualisierungssoftware bewerten oder bewerben. Ihre Posts hierzu sind trotz Länge und Entfernung vom Initialthema sehr kurzweilig und interessant!
Hi,
@Nutzer_8888 schrieb: boomboom wollte nach meinem Verständnis primär wissen, ob mit gängiger Hardware und verbreiteter Virtualisierungssoftware (wie z.B. Hyper-V oder VMWare) den virtuellen Maschinen eine andere CPU z.B. XEON-ABC zugeordnet werden kann, als im Host physikalisch werkelt (zum Beispiel eine AMD oder was auch immer ...).
Denkbar, aber warum sollte man das wollen? ich würde mal sagen, dass im Windows-Bereich "wurscht" ist, was für eine CPU (Intel/AMD) werkelt. Auch im Linuxbereich m.E. ziemlich egal.
Im Hinblick auf die "virtuellen CPU" kommen wir aber in den Bereich der Ressourcenzuweisungen. Wenn der Host 16 Kerne (echte, kein HT) hat und im Hyper-V/VMware an die Gastrechner insgesamt 20 CPU's zugewiesen werden, sind wir im Bereich des Overcommitment, was eine "Virtualisierung der CPU" von 4 CPU's darstellen könnte...
Allerdings werden hier tatsächlich keine CPU's virtualisiert.
Beste Grüße
Christian Ockenfels
Was dann bedeuten würde, dass im Gast-System typischerweise (oder immer) die Bezeichnung der im zugehörigen Host physikalisch verbauten CPU steht?!
PS: Hier kam die Frage auf, ob, wenn im TaskManger CPU XY steht, auch CPU XY im Host steckt (zwecks Einschätzung der Host-CPU-Performance). Die Anzahl der Sockets und Kerne entspricht natürlich nur der zugeordneten Anzahl. Also könnte ein Typ mit 10 Kernen gelistet, aber halt nur 2 zugeordnet sein, aber die Takten wie der angezeigt Typ. Unklar bleibt dabei (zumindest bei VM-Ware) nur, ob das volle oder HT- Kerne sind.
@Nutzer_8888 schrieb:Was dann bedeuten würde, dass im Gast-System typischerweise (oder immer) die Bezeichnung der im zugehörigen Host physikalisch verbauten CPU steht?!
Korrekt.