... die Überschrift war schon treffend: Glaubensfrage!!!
Für die Gottlosen unter uns: da hilft nur im Einzelfall messen und sich darüber im klaren sein, dass sich das ändern kann.
Zu den konkreten Fragen: wenn sich das bei diesen lächerlich kleinen Datenmengen störend bemerkbar macht, dann sollte man untersuchen was da faul ist. Bei wirklich großen Datenmengen (mehr als einige hundert Millionen records) muss man sich darüber im klaren sein, dass da manche Zeiten exponentiell mit Datenmenge ansteigen, da muss man im Einzelfall untersuchen und Lösungen finden (nur Scharlatane haben Patentrezepte).
Beim Indexaufbau kommt es auch darauf an wie sortiert die physischen Daten sind, sind die sehr strubbelig, ist es wurscht, ob ich das mit maint mache. oder ohne; "fast sortierte" Daten sind meist beim nachgelagerten indizieren/sortieren schneller. Index und LF ist tendenziell egal, es sei denn, dass es da mix zwischen Indexdesign und RLA gibt, dann sind Indexe besser; das vielbeschrieene Page sizes etc, ist eher im Bereich des Grundrauschens (unter der Messbarkeitsschwelle) - gerade hier toben sich wieder viele Scharlatane beiderlei Geschlechts aus.
Baldurs angesprochene gemeinsame Studien beziehen sich primär auf SQL bulk Operationen mit Terrabyte Daten und parallel Database Feature, bei transactional workload ist massiv parallel, mit Commit und allen Indexen meist das schnellste (wenn man die Ressourcen hat).

D*B

Zitat Zitat von Robi Beitrag anzeigen
Hi *all
hat das mal einer versucht oder gibt es ein begründetes theoretisches 'richtig'?

Ein Job erzeugt 10 Statistik Dateien
die kleinsten beiden beinhalten 73 Sätze, die größte 50 Mio
Dann noch eine mit 11 Mio und der Rest zwischen 1,5 und 2 Mio Sätzen.

In die Dateien wird nur geschrieben.
Für den später benötigten Zugriff wird je ein LF benötigt. (Oder Index)

Was ist schneller?
a) Alle PF erstellen, alle LF erstellen, alle Dateien füllen
b) Alle PF erstellen, alle Dateien füllen, alle LF erstellen
c) wie a nur mit Index statt LF
d) wie b nur mit Index statt LF

Robi