Hallo Baldur,
sorry, dass ich erst jetzt auf deinen Beitrag antworte. Ja, du hast Recht. Mit einer passenden Indexstrategie treten viele Problem gar nicht erst auf und für den normalen Hausgebrauch reicht das auch. Das machen wir hier genauso.

Allerdings gibt es ja weitergehende Optimierungsmöglichkeiten, die dann eher Mikroverbesserungen sind. Wie z.B. dass man einen auf den ersten Blick sinnlos erscheinenden zusätzlichen Index erstellt, der aber dafür sorgt, dass alle Daten direkt aus dem Index gelesen werden und dann kein zusätzlicher Zugriff auf die physische Tabelle gemacht werden muss.

Wir haben bei uns sehr viele Abfragen parallel laufen, weil bei uns viel gesynct wird. Da möchte ich an der einen oder anderen Stelle mal gucken, ob eine kleinteilige Optimierung bei bestimmten Jobs etwas verbessert. Wobei wir grundsätzlich erstmal kein echtes Performanceproblem haben, aber das heißt ja nicht, dass es nicht noch besser laufen könnte.

Ich bin über manche Daten selbst überrascht, die uns das Performance Center anzeigt. Wenn ich das richtig interpretiere, sollen über 300.000 Queries parallel ausgeführt werden. Das kann ich mir kaum vorstellen, auch wenn man jeden Einzelsatzzugriff mitzählt, der ja seit einigen Releases im Hintergrund immer über die SQL-Engine verarbeitet wird.

Hier mal ein aktueller Ausschnitt aus unserem Performance Center:

Click image for larger version. 

Name:	Performance Center Snippet.PNG 
Views:	12 
Size:	49,5 KB 
ID:	644

Für mich sieht es so aus, als würden 332535 Queries "currently", also gerade jetzt ausgeführt. Finde ich viel.

LG, Dieter