Hallo liebes Forum,

ich habe mal wieder eine Frage....

Im Zuge unses Jahresabschlusses müssen mehrere Dateien um die "Altlasten" bereinigt werden. Die Größe der Files liegt jeweils so zwischen 10 und 20 Millionen Datensätzen.
Die physischen Dateien sind ungeschlüsselt, darüber liegt jeweils eine logische Datei, die das Kriteriums-Feld im Schlüssel beeinhaltet (allerdings nicht als primary key).

Bsp.
PF: FeldA, FeldB, FeldC, FeldD
LF: K FeldA, K FeldC

Entfernt werden sollen alle Sätze mit z.B. FeldC<2000

Die Frage ist für uns, welcher Weg am schnellsten und wenigsten performanceträchtig ist - mit CPYF über Zwischendateien, SQL, Programme (RPG).

Hat jemand mit solchen grossen Dateien schon Erfahrungen gemacht (Fuerchau oder BenderD vielleicht ?).


Schon mal vorab vielen Dank.

Mirko Knoll