Anmelden

View Full Version : sql vs Nativ read delet ...



Seiten : 1 [2]

andreaspr@aon.at
03-03-16, 08:53
... wieder einer der Mythen: für SQL gilt das Kohl Prinzip (wer den Dicken nicht kennt: entscheidend ist, was hinten rauskommt!). Wenn ein SQL Statement durch Umformulierung schneller wird, hat der Query Optimizer einen Bug!

Jaja die böse IBM die böse DB2. Teilweise hast du ja recht, teilweise aber übertrieben. Wenn man all deine Postings zusammenfasst glaubt man, dass die IBM i die so ziemlich schlechteste Wahl ist die man treffen könnte. Da frag ich mich schon warum du in diesem Umfeld noch tätig bist?
(Ist jetzt kein Angriff, oder böse gemeint, sondern würde mich und sicher viele andere auch wirklich interessieren!!)

Zurück zum Thema:
In solchen Fällen wie von mir schon hin und wieder beschrieben sehe ich es nicht als Bug. Der Optimizer ist halt nur nicht Optimal ;)
Und ich habe schon oft SQLs umstrukturieren müssen, um größere Performance gewinne erziehlen zu können. (Natürlich auch mit entsprechender Index Strategie)

In Oracle haben wir z.B. das Problem dass der "Optimizer" für das gleiche Query einmal den entsprechenden Index benützt und einmal wieder nicht.
Und das macht wirklich probleme. Ist im übrigen kein unbekanntes Problem bei Oracle!
Aber solche Diskussionen hatten wir hier auch schon zu genüge.

andreaspr@aon.at
03-03-16, 09:03
Ich gebe zu, das ich das nicht untersucht habe.
außer der strdbg - weg hab ich da nicht soviel Kenntnisse.

Welches Release habt ihr?
Hast du aus dem Joblog heraus sehen können ob der entsprechende Index genommen wurde?
Hat er den ODP wiederverwendet?

Wenn du ein DB Monitoring startest kannst du da viel mehr informationen herauslesen.

ILEMax
03-03-16, 09:20
7.1 nahezu alle PTF
ODP wurde wiederverwendet, das stand so im Joblog.
Ob er die Indexe genommen hat weis ich nicht, ich hab's ja nicht weiter untersucht.


Wenn du ein DB Monitoring startest kannst du da viel mehr informationen herauslesen.

Da müßte mich mal einer für ne halbe Stunde an die Hand nehmen.
Jede Menge Halbwissen und eine gehörige Portion Unsicherheit in verbindung mit ständigem Zeitdruck
sorgen dafür, das ich da bisher nicht ran gegangen bin.

andreaspr@aon.at
03-03-16, 09:37
Es gibt ja Möglichkeiten externe Schulungen zu besuchen oder auch Angebote für Inhouse Schulungen anzufordern.
Hier im Forum sind auch einige die dir das Anbieten können.
Je nachdem wo du dich befindest könnten auch 1 Tages Inhouse Schulungen kostengünstig gemacht werden.
Ich z.B. betreibe hauptsächlich Inhouse Schulungen beim Kunden.
Bei Birgitta kannst du auch bei externe Schulungen teilnehmen.

Wie mal ein Finanzexperte gesagt hat:
"Die besten und sichersten Investitionen sind die Ich-Investitionen" (also investieren in Ausbildung)

BenderD
03-03-16, 11:26
das SQL schaffte im schnitt 2.200 Dataq Sätze in der Stunde
Native schafft 60.000


> 1 sec pro Eintrag und Faktor 27, da sollte man erst mal nachsehen, wo die Zeit bleibt.

16/sec für native, da stellt sich auch schon die Frage, wo da die Zeit bleibt - wie viele Datenbankoperationen stehen dahinter? Auch da ist durchaus Optimierungspotential zu vermuten; am Ende könnte eine SQL Lösung da schneller sein!!!

D*B

ILEMax
03-03-16, 12:26
Ich fürchte das ich mich wiederhole
Es sind 9 Dateien.
3 kleine mit bis zu 5000 Sätzen,
6 große mit 1.000.000 - 15.000.000 Sätzen.

Der update findet minimum 0 maximum ca 150 Sätze.
Schätze im Schnitt 40-50 (in den großen Dateien)

So sehen ALLE 9 SQL Befehle aus

/EXEC SQL
+ UPDATE $FOTIP2 SET $AWKAR = 'D', $ADNEW=:HEUTE, $ATNEW=:JETZT
+ WHERE $AKEY8 = :N7A AND $AKEYE = :N1
/END-EXEC

Key der Datei: $akey8 und $akeye und (hier) 3 weitere Felder
(:heute und :jetzt = Numerisch 8 und 6, Datum jjjjmmtt und Zeit hhmmss, auch in der Datei)

Wie kannst du das optimieren?

Der ILEMax

Fuerchau
03-03-16, 13:51
Die Frage ist, was der Optimzer dazu im Joblog (unter Debug) zu meckern hat.
Ob die Variablen in der Ausprägung zum Schlüssel passen....

BenderD
03-03-16, 16:09
Ich fürchte das ich mich wiederhole
Es sind 9 Dateien.
3 kleine mit bis zu 5000 Sätzen,
6 große mit 1.000.000 - 15.000.000 Sätzen.

Der update findet minimum 0 maximum ca 150 Sätze.
Schätze im Schnitt 40-50 (in den großen Dateien)

So sehen ALLE 9 SQL Befehle aus

/EXEC SQL
+ UPDATE $FOTIP2 SET $AWKAR = 'D', $ADNEW=:HEUTE, $ATNEW=:JETZT
+ WHERE $AKEY8 = :N7A AND $AKEYE = :N1
/END-EXEC

Key der Datei: $akey8 und $akeye und (hier) 3 weitere Felder
(:heute und :jetzt = Numerisch 8 und 6, Datum jjjjmmtt und Zeit hhmmss, auch in der Datei)

Wie kannst du das optimieren?

Der ILEMax

... vielleicht bin ich ja begriffsstutzig, 60.000 * 50 reads plus die gleiche Menge updates in der Stunde, das sind pro sec. 1666 elementare db Operationen, für RLA auch kein berauschender Wert, aber noch plausibel.
Wenn ich dasselbe in der gleichen Logik mit SQL mache, sprich: lesen mit cursor und update per current of cursor, dann wäre für mich 1 millisekunde pro elementare Operation grenzwertig (:= net schnell, aber kein Handlungsbedarf, falls Durchsatz ausreichend). Macht man dasselbe per Bulkoperation, also 50 updates mit einem SQL Statement (so verstehe ich das, was Du da machst), dann sollte SQL schneller sein.
Wenn es dann aber um den Faktor 27 langsamer ist, dann besteht da ein hebbares Problem, von der Art fehlender Index oder vermeidbarer cast - in jedem Fall sollte da bereits STRDBG vorher und ein Blick in das Joblog ausreichend Info liefern.
Ganz unabhängig davon, könnte man den Durchsatz mit SQL, durch Parallelisierung der Anforderungen, deutlich über den RLA Wert steigern können (es sei denn die Maschine pfeift auf dem letzten Loch).

D*B

PS: falls die keys für die where clause aus der DataQ kommen, könnte man eventuell sogar mehrere SQLs zu einem (mit where in subselect) zusammenfassen. Auch das hat einiges Potential. Das wichtigste ist allerdings die Index Frage; da könnte es schon helfen, wenn Du mal das Joblog eines exemplarischen Zugriffs hier einstellst.

D*B