Nun, viele IO's auf einer Datei deuten gerade nicht auf sequentielles lesen sonder auf viele (wiederholte) Chains hin. Somit prophitiert man nicht von sequentiellen Optimierungen.
Wie von mir schon beschrieben konnte ich mit eigenem Cache (Tabelle mit %lookup)
a) die Anzahl der Lesevorgänge von über 100.000 auf unter 100 bringen
b) die Gesamtlaufzeit um den Faktor 15 verringern
Da man nun mal nicht alleine auf dem System ist kann ich auch nicht beurteilen ob und wann tatsächlich gelesen oder nur vom Systemcache geladen ist.

Und ob sequentielle Optimierung tatsächlich etwas bringen wenn eine Tabelle per REUSEDLT(*YES) total gestreut verteilt liegt wage ichauch zu bezweifeln.
Hier ist ggf. ein RGZPFM nach LF-Sortierung vielleicht sogar effektiver.