Kurze Frage: Was sind MOPS?
thx
Tippen ist heute nicht meine Stärke.
Das sind die MDOPs = Max degree of parallelisum = Maximale Anzahl paralleler Prozesse
Pro Prozess wird ein Kern genommen und deshalb wird standardmäßig die Hälfte der Kerne genommen, die zum Zeitpunkt der Installation verfügbar waren. Maximal jedoch acht. Wenn man also die Hardware eines System reduziert, wird die Anzahl nicht verändert und der SQL Server greift sich im schlimmsten Fall alles, was an Kernen da ist und lastet die Kiste zu 100 Prozent aus.
Andersrum merkt er auch nicht, wenn du die Anzehl Kerne verdoppeln würdest und Verarbeitungszeiten bleiben die gleichen wie vorher.
Siehe Dokument 1014224
Da steht zwar, dass das ab 10.0 geändert wird, aber soweit ich das gemerkt habe, betrifft das nur die Neuinstallation bzw. den Wechsel auf SQL 2014. Wenn der einmal installiert ist, ändert sich der Wert nach meiner Erfahrung nicht mehr.
Irgendwo hier im Forum schreibt jemand, dass man dem Server lieber Kerne spendieren sollte als etwas anderes. Das ist der Grund dafür.
Sorry für den Buchstabendreher
Danke
Dachte mir schon so etwas.
Ich werde hier bei Gelegenheit auch nochmal unsere/meine Werte posten/kommentieren.
WAS aber sehr auffällig ist:
- Ich zwing die Performance komplett in die Knie, sobald ich ein lokales Schutzmodul benutze. Falls dazu jemand Abhilfe weiss, alle Tipps willkommen.
- An dem PC an dem ich gerade sitze habe ich ca. eine 1,5mbit Leitung (durchs Stromnetz) zum Rest der Kanzlei. Die Nutzung darüber macht alles andere als Spass was Ladezeiten anbetrifft. Nutzung der Kanzlei-Rechner per Remote hingegen ist super. Auch hierzu Abhilfen willkommen!
Hinzuzufügen wäre:
- An dem PC an dem ich gerade sitze habe ich ca. eine 1,5mbit Leitung (durchs Stromnetz) zum Rest der Kanzlei. Die Nutzung darüber macht alles andere als Spass was Ladezeiten anbetrifft.
Bei der Software des Mitbewerbs gibt es keine Einschränkungen. Der Server ist tatsächlich nur über diese Leitungen angebunden.
Die liebe Performance und Datev Programme passen an einigen Stellen nicht wirklich zusammen. Das ist halt alles sehr komplex.
Die Erfahrung mit dem Schutzmodul habe ich noch nicht gemacht. Wir haben einen Datev Arbeitsplatz auf einem extra PC laufen. Der hat alleridngs auch einen I7, SSD und 16 GB, also nicht unbedingt der Standard.
Zum Power-LAN habe ich nur Erfahrung aus dem privaten Bereich. Wir haben Devolo und ich glaube, dass das schnellste das Cockpit ist. Gefühlt hat das Schneckentempo aber die Anzeige lässt die Glückshormone Samba tanzen. Wenn man über Power-LAN mit einer RDP Session auf den Server zugreift, werden ja auch nur die Grafikdaten über die Leitung geschickt. Das war mit einem 3G Handy schon erträglich. Aber wenn man auf die Antwort und die Daten des Servers warten muss, kann man schon mal über einen Kaffee nachdenken.
Ich wollte ja noch meine Erfahrung mit Network Teaming auf einem ESX Host berichten. Ich hatte ja beim Pingfiletest mit einer 1GB Karte ca. 800 bis 900 MB/sec. Das hat sich mit zwei Karten leider nicht verdoppelt, aber immerhin komme ich jetzt auf 1200 bis 1300 MB/sec. Nicht viel, aber der Mensch freut sich.
mal abgesehen von den mbits.. wo hakt es denn nun genau? zu langam.. nicht zufriedenstellend für die ausgaben?
Tja, wenn man das so genau sagen könnte. Ich denke, wir haben uns mehr versprochen, als am Ende raus kam.
Es ist schon alles deutlich performanter als mit dem alten Server, aber der Bildschirmaufbau des Datev Arbeitsplatzes hat sich gefühlt nicht verbessert. Wenn man dann einmal drin ist, ist es auch spürbar besser.
Wenn mann sich die Statistiken der Hardware ansieht, geht da, abgesehen von der Einschaltphase, nichts über die 20 bis 25 Prozent hinaus und es scheint, dass die Datev die Hardware nicht richtig nutzt. Alle anderen Programme (Office z.B.) benehmen sich seit der Installation deutlich anders. Anklicken, innerhalb einer Sekunde sind sie da, die Eieruhr ist weg und man kann arbeiten. Warum ist das nicht so spürbar, wenn ich den Datev Arbeitsplatz anklicke, selbst wenn ein paar Dinge in der Schnellansicht sind?
Im Resourcen-Monitor ist auch kein Ausreißer ausfindig zu machen, der beim Start des Datev Arbeitsplatzes übermäßig hinlangt. Deshalb habe ich vermutet, dass die Daten zwischen Fileserver und WTS nicht schnell genug sind und daher das Augenmerk auf MB/sec.
man könnte etwas mehr rausholen mit:
-anderen cpus ( lt. empfehlung)
-raid1 oder 10
-eventuell mehr ram (für sql)
-den optimierungen lt info db (wenn noch nicht geschehen)
-mehreren physischen maschinen
office wird immer schneller sein
An die CPUs glaube ich nicht wirklich. Die schnelleren würden dann anstatt bei 15 Prozent bei 10 Prozent rumdümplen.
RAID will ich mich nicht festlegen und es auch nicht ausschließen. Damit werden dann aber wieder mehr Resourcen verbraucht. Für 2,4 TB brauche ich dann vier 1,2 GB Platten anstatt drei. Ich hatte gehofft, dass den Nachteil die SSDs auffangen, was sie meiner Meinung nach auch tun. Ein pingfile mit 500 MB auf die lokale Platte geht mit ca. 9.000 MB durch. Viel schneller dürfte es mit RAID 1 oder 10 auch nicht werden.
Mehr RAM für den SQL Server werde ich nächstes Wochenende mal versuchen und auch mehr Kerne.
Die Info DB habe ich rauf und runter abgearbeitet, was gut für die Psyche war, aber leider nicht für die Performance.
Zusätzliche Hardware ist eigentlich kein Thema, solange die vorhandene nicht mal zu 20 Prozent ausgelastet ist.
Ich suche noch auf der ESX Schiene weiter. An irgendeiner Stelle muss sich die Bremse ja finden lassen.
Ganz dumme Frage: Wird das SSD Raid vom ESX auch als SSD erkannt?
Dann noch den hier https://kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=displayKC&externalId=2008925 durcharbeiten.
Ansonsten mal ein anderes Toll zum Messen der Netzwerkperformance nutzen. Ich habe das Gefühl das System kommt irgendwann zu dem Entschluss nur noch aus dem Cache zu arbeiten.
ESX scheint bei pingfile auch zu optimieren. Pingfile Freigabe A auf Server <- Start auf TS -> Freigabe B auf Server = rasend schnell.
Pingfile lokales Verzeichnis TS <- Start auf TS -> Freigabe auf SQL Server = schnell
Alle Server auf einem Host, die Platten des Servers sind die langsamsten im Host.
@Frank
ESX mit Raid 5 ist "Suboptimal"!
Mach mal Raid 1 oder besser Raid 10.
Ist vom Durchsatz her schneller und Du merkst es auch in zB. Start des Arb-Platzes.
Und bei ESX völlig stressfrei zu erledigen.
Grüße
aus Hamburg
Anonym
Das Dokument von VMware habe ich auch schon durch.
ESX erkennt das als HDD Raid und nicht als SSD
Das werde ich zur Not mal versuchen, obwohl ich dann eine ganze Platte, sprich 1,2 TB, ins Regal legen oder noch eine kaufen muss. Wie bringe ich das meinem Chef bei?
Nö,
kopier das wech,
Raid konfen,
esx neu drauf
und wieder rauf kopieren
Jetzt habe ich ein Brett vor dem Kopf oder eine Denkblockade.
Ich habe zwei 240 GB Platten als RAID 1, macht 240 GB und da ist zur Zeit nur der Hypervisor drauf.
Dann habe ich drei 1,2 TB Platten im RAID 5 (2,4 TB gesamt) mit dem Rest.
Für RAID 1 brauche ich 2 Platten und hätte 1,2 TB (eine übrig)
Für RAID 10 brauche ich 4 Platten und hätte auch 2,4 TB. (eine zu wenig)
Wenn der ESX die SSD nicht erkennt reicht eine Neuinstallation nicht. Da ist die Konsole des ESX gefragt.
Richtig Frank,
mach aus dem R5 ein R1,
das kannste ohne weitere HW machen
Dazu habe ich auch schon ein bisschen die Foren gelesen. ESX erkennt das MegaRAID, aber weiß nicht, was sich dahinter für Platten verbergen. Das kann man per Kondsole zwar umstellen, aber einen echten Vorteil konnte man dabei nicht ausmachen.
Hast du da andere Erfahrungen gemacht?
>Der Fileserver ist 2012 R2 mit 8 CPUs und 16 GB Speicher. Der WTS hat für 2008 R2 auch 8 CPUs und 16 GB Speicher und der KomServer (WIN 7 pro) 2 CPUs und 4 GB.
Hallo Herr Pfeiffer,
nehmen Sie mal bei den virtuellen Maschinen deutlich die vCPUs zurück und probieren Sie es dann erneut.
Wenn Sie noch den Platz auf dem RAID-1 haben verschieben Sie mal die vmdk des WTS testweise auf das RAID-1. Was für ein RAID Controller werkelt in dem Srv?
Just because you COULD, dosn't mean you SHOULD.
Der Spruch stammt nicht von ungefähr, einfach mal Googeln - es wird ein pdf mit einer Präsentation zum Thema VMWare und Storage gefunden.
Ich betreibe hier alle meine Hosts (1 Produktiv, 1 Alt, 1 Labor) mit SD Cards (eingebaut) oder USB Sticks. Alle lassen sich über die Updatefunktion des VCenterServers verwalten, da braucht nicht neu installiert werden. Damit hat man den Hypervisor schon einmal isoliert.
Mein benchmark mit dem 4790k ist in erster linie so gut, weil der takt so hoch ist. Klar.. die xeons haben mehr cache usw., aber takt mit moderner architektur scheint dann doch besser zu sein. datev skaliert mit mehreren cpus nicht so gut.
Hallo, der Kollege hat 2 x 10 echte Kerne macht mit HT 40 virtuelle, das reicht mehr als "dicke" aus, 64 GB RAM sind auch genug.
das bremst.. deswegen sollte man ht auch ausschalten. siehe info db... die empfehlung, xeon 2643, hat auch nur 6 kerne..
Die Empfehlungen der Datev sind da aber auch nicht so ganz eindeutig.
Bei der CPU empfehlen sie eher wenig Kerne und für SQL reden sie dann wieder von vielen Kernen wegen der Verbesserung und Parallelbetrieb. Die nehmen maximal 8 Kerne für den SQL Server und das sind 50 Prozent der verfügbaren Kerne des Servers (also 16).
Der RAID Controller ist der Intel RS3DC080
sql, viele kerne?! wissen sie noch wo das steht?
Das habe ich im Dokument 1014224 gefunden. Ganz am Ende wird auf sqlsrv.exe eingegangen und wir sind wieder bei der MDOP Diskussion angekommen.
Für mich bedeutet die Tabelle, dass sich mit der Anzahl der der Kerne auch die Anzahl der parallelen Prozesse erhöht, was ja eigentlich auch Auswirkung auf den Durchsatz haben sollte.
Geben Sie mal beiden Server nur 2 vCPU und legen damit eine Baseline fest, was Pingfile, Leistungsindex und SQL Performance Test im SQL Manager angeht.
Fragen Sie mal nach ob der Intel RAID schon eine BBU hat.
BBU oder MFBU.. das wäre natürlich auch der Hammer, wenn der das nicht hätte.
Ja gut.. da steht was. Trotzdem würde ich HT abschalten.
Die schnellere CPU würde aber was am WTS bringen. Mehr RAM eher was am SQL.
Wir sind soweit ganz zufrieden.. der RAM läuft trotzdem am SQL immer voll (22 GB).
Da könnte man bei dem nächsten serverwechsel noch etwas rausholen.
BBU ist am RAID vorhanden und sollte nach mehr als einer Woche auch geladen sein.
Das RAM läuft immer voll, weil das max_,memory wahrscheinlich auf dynamisch steht. Dann greift sich der SQL Server den größten Teil des verfügbaren Speichers.
Der SQL Performance Test ist m.E. auch ok. Etwas mehr als 3 Sekunden für den Test.
Wenn ich mir das jetzt alles noch einmal ansehe, ist der Pingfile local super, der SQL Test ist auch gut. In dem Moment, wo die Tests die Maschine verlassen und den Switch bzw. das Netzwerk in Anspruch nehmen, wird es langsam.
Ich suche mal an der Stelle noch etwas intensiver.
ne.. hab das irgendwann fixiert.
Aber auch der tatsächliche verbrauch liegt 10mb unter dem fixierten maximum .
was sagt denn ping?
wo finde ich den sql performance test?