-
@Baldur:
Wer außer Dir behauptet denn, dass EVIs sehr viel Platz benötigen?
EVIs sind im Gegenteil sehr viel kompakter als Binary Radix Tree Indices
... außerdem werden Binary Radix Tree Indexes nur verwendet, wenn max. ca. 15% der Daten einer Datei gelesen werden. EVIs decken den Bereich >15% bis ca 80% der Daten ab.
Des weiteren können in den Encoded Vector Indices Aggregat-Informationen gespeichert werden, so dass z.B. beim richtigen EVI mit den richtigen Aggregat-Informationen und der richtigen Gruppierung (Group By) die Daten direkt aus dem Symbol Table des EVI ausgelesen werden können, d.h. es ist also kein Zugriff auf eine Tabelle notwendig (EOA - Encoded Vector Index Only Access).
Außerdem ist der Query Optimizer in der Lage für eine Abfrage für ein und die selbe Datei mehrer Indices zu verwenden (Index-ANDING und Index-ORING)
Im Übrigen sollte man natürlich sauber kodieren und nicht die IBM für Schlampereien verantwortlich machen wollen.
Wenn ein Feld alphanumerisch definiert ist, sollte man in der Where-Bedinung die Konstante in Hochkommata setzen bzw. in einem Programm auch die Host-Variable entsprechend definieren, auch dann wenn die Kunden-Nr. immer nummerisch ist.
-
Bzgl. der EVI's hast du ja den Link auf das Dokument mitgeteilt. Da steht immerhin drin, dass EVI's sehr viel Platz benötigen und somit u.U. ineffektiv werden können. Von alleine wäre ich da nie drauf gekommen.
Und was das Beispiel angeht, so wollte ich damit nur auf das Umdrehen des Cast hinweisen, der zur Nichtverwendung von Indizes führt, nachweislich.
-
Vielleicht noch eine kurze Erklärung warum das derzeit für mich wichtig ist.
Wir arbeiten gerade an einem ERP Upgrade. Dadurch ändern sich die verwendeten Biliotheken (Schemas) und in vielen Fällen auch die Tabellen bzw. deren Felder.
Das führt dazu das wir so ziemlich alle WebQuery Reports, bzw. die SQL-Views die dafür verwendet werden, überarbeiten bzw. anpassen müssen. (und das sind wirklich viele)
Wenn wir schon fast alles "neu" machen dann möchte ich es soweit möglich auch verbessern.
Es gibt schon jetzt SQL-Views die für WebQuery eine zu lange laufzeit haben (führt im WebQuery zu timeouts), daher werden die Ergebnisse dieser Views in Nacht-Jobs mittels Prozeduren in Tabellen gespeichert und diese dann für die Auswertungen verwendet. Aber das lässt sich wegen untershiedlicher Anforderungen nicht immer machen.
lg michael
-
... aus meiner praktischen Erfahrung gibt es da ein paar Grundregeln:
- Anforderungsanalyse: Was darf wie lange dauern.
- den (eigenen und maschinellen) Aufwand begrenzen auf das, was die Anforderungen nicht erreicht.
- Laufzeiten messen statt schätzen oder schätzen lassen (STRDBMON ist Dein Freund)
- bei Verbesserungsversuchen kann man sich durchaus von Empfehlungen der Query Engine leiten lassen
- nach Verbesserungsversuchen neu messen, falls es nix bringt Rückbau auf Stand vorher
Von Blindschusstherapien rate ich ab, anlegen überflüssiger Indexe kann drastische Folgen haben und freut allenfalls den Hardware Lieferanten.
D*B
-
Nun ja BI ist schon immer eine Kunst, deshalb habe ich mich dieser auch verschrieben (siehe Signatur).
Was den Querytimeout angeht, so kann man diesen via QAQQINI überschreiben.
Dein bisheriges Vorgehen hat sich auch heute noch nicht geändert.
Um zu prüfen, welche Indizes tatsächlich verwendet werden, kann man leicht an Hand der geöffneten Dateien des Jobs sehen. Auch unter STRDBG (gibt auch einen QAQQINI-Eintrag dafür) muss man sich die Meldungen im Joblog ansehen. Für jede Datei gibt es 1-2 Einträge in der die Indizes mit einem Bewertungscode aufgeführt sind. Der Index mit Bewertung 0 wurde verwendet.
Im Gegensatz zu früher hat sich auch der Einsatz von 1-Feld-Indizes verbessert, da der Optimizer durchaus in der Lage ist, Indizes zu kombinieren. Also an Stelle viele Indizes mit wilden Feldkombinationen (A+B, A+C, B+C+D, ...) zu erstellen reicht es durchaus, weniger Indizes mit genau nur 1 Feld zu verwenden. Das dient dann auch der Pflegeoptimierung.
Dabei wird man dann feststellen, dass es durchaus Felder gibt, die nur weniger als 10 verschiedene Werte aufweisen und dann ein Tablescan effektiver sein kann.
Und da kommt dann nun wirklich EVI ins Spiel, da hier die Bitmap/RRN-Kombinationen extrem eine Rolle spielen. Wichtig ist bei der Erstellung die "Anzahl Distinct Values" fest zu legen um einen Rebuild zu verhindern.
Nachzulesen in Birgittas o.a. Link;-).
Nachtrag:
Und was Birgittas Hinweis angeht, bereits Aggregate in den EVI zu schieben, so ist dieser wenig zielführend. Wie man an Hand der Beschreibung sieht, wird das Aggregat zum Schlüssel gebildet.
In einer mandantenfähigen Software kommt man bei Aggregaten selten ohne Where-Klauseln aus, sowie bei Gruppierungen über mehr als 1 Feld, da sind dann die voraggregierten Werte eher sinnlos.
-
Ich danke euch vorerst mal für eure Antworten. Ich muss mir jetzt erst mal die empfohlene Literatur durchlesen und ein paar tests mit den vorgeschlagenen tools durchführen.
Da ich auch verpflichtet worden bin meinen Urlaub abzubauen (da hat sich einiges angesammelt) könnte es ein paar Wochen dauern.
Trotzdem - Vielen Dank vorerst
Similar Threads
-
By Peet in forum NEWSboard Programmierung
Antworten: 16
Letzter Beitrag: 30-04-18, 21:18
Tags for this Thread
Berechtigungen
- Neue Themen erstellen: Nein
- Themen beantworten: Nein
- You may not post attachments
- You may not edit your posts
-
Foren-Regeln
|
Erweiterte Foren Suche
Google Foren Suche
Forum & Artikel Update eMail
AS/400 / IBM i
Server Expert Gruppen
Unternehmens IT
|
Kategorien online Artikel
- Big Data, Analytics, BI, MIS
- Cloud, Social Media, Devices
- DMS, Archivierung, Druck
- ERP + Add-ons, Business Software
- Hochverfügbarkeit
- Human Resources, Personal
- IBM Announcements
- IT-Karikaturen
- Leitartikel
- Load`n`go
- Messen, Veranstaltungen
- NEWSolutions Dossiers
- Programmierung
- Security
- Software Development + Change Mgmt.
- Solutions & Provider
- Speicher – Storage
- Strategische Berichte
- Systemmanagement
- Tools, Hot-Tips
Auf dem Laufenden bleiben
|
Bookmarks