[NEWSboard IBMi Forum]
Seite 2 von 2 Erste 1 2
  1. #13
    Registriert seit
    Feb 2001
    Beiträge
    20.241
    Da die Schlüssel aber nicht UNIQUE sind werden die Schlüssel weiterhin nach Fifo abgerufen.
    Schlüssel verwende ich meist nur für Jobtrennungen.

    Ich habe ja ansonsten mit NOBLOCK, also nicht Blocken hingewiesen und "irgendwo" gesagt.
    BLOCK(*NO) gibts ja nur bei ILE und nicht bei OPM.
    Dienstleistungen? Die gibt es hier: http://www.fuerchau.de
    Das Excel-AddIn: https://www.ftsolutions.de/index.php/downloads
    BI? Da war doch noch was: http://www.ftsolutions.de

  2. #14
    Registriert seit
    Mar 2002
    Beiträge
    5.287
    Zitat Zitat von dibe Beitrag anzeigen
    ...
    Es werden ca 40.000 Sätze täglich verarbeitet ...
    dauert ... 22 Stunden
    ... da würde ich zuerst darüber nachdenken, was da so lange dauert, eh' ich da überraffiniertes Zeug implementieren würde...

    D*B
    AS400 Freeware
    http://www.bender-dv.de
    Mit embedded SQL in RPG auf Datenbanken von ADABAS bis XBASE zugreifen
    http://sourceforge.net/projects/appserver4rpg/

  3. #15
    Registriert seit
    Feb 2001
    Beiträge
    20.241
    Vielleicht sind das ja gerade die Initialisierungen die man sich nun damit sparen kann.
    Dienstleistungen? Die gibt es hier: http://www.fuerchau.de
    Das Excel-AddIn: https://www.ftsolutions.de/index.php/downloads
    BI? Da war doch noch was: http://www.ftsolutions.de

  4. #16
    Registriert seit
    Mar 2002
    Beiträge
    5.287
    ... und wieviel Zeit könnten die beitragen? Lass mich raten: allenfalls eine Millisekunde pro Aufruf, macht weniger als eine Minute für 40.000

    D*B
    AS400 Freeware
    http://www.bender-dv.de
    Mit embedded SQL in RPG auf Datenbanken von ADABAS bis XBASE zugreifen
    http://sourceforge.net/projects/appserver4rpg/

  5. #17
    Registriert seit
    Nov 2009
    Beiträge
    208
    Die ersten 2 Pgmme sind uralt OPM Schinken die zunächst eine Statistik Datei erstellen (PGM1) und innerhalb der Datei anschl. von verschiedenen 'gleichen' Sätzen den gültigen kennzeichnen(Pgm2)
    Lief früher einmal am Monatsende, auf 1,8 Mio Datensätze ca 8 Stunden.
    Da weiß niemand was die damalige Aufgabe für Feinheiten hatte, das darf niemand ändern!

    Das 3. ist eine Komplexe Data Ware House Aufbereitung auf Basis der Statistik.
    Lief bisher auch 1 mal am Monats ende
    Hat für die zur Verfügung Stellung von 88 mio Sätzen verteilt auf 10 Dateien 18 Stunden benötigt.
    Das sind 'nur' 1358 Sätze/Sekunde. Dazu wurde aus rd 17 Dateien Daten gelesen, summiert und gezählt. Ein bunter mix aus Sql und native zugriffen

    Bei der neuen Anforderung laufen alle 2 Pgmme immer nur für einen Key, also minimal 1 Satz, maximal 10 Sätze. Hinzu gekommen ist, das zunächst aus allen Dateien die alten Sätze als Löschung gekennzeichnet werden um dann ggf via update wieder entlöscht zu werden. Das dauert alles.
    Werde morgen denn 1 Parallel Lauf testen lassen.
    DiBe

  6. #18
    Registriert seit
    Feb 2001
    Beiträge
    20.241
    Da sollte man eher über eine vernünftige BI-Lösung nachdenken und den alten Kram abschalten.
    Dienstleistungen? Die gibt es hier: http://www.fuerchau.de
    Das Excel-AddIn: https://www.ftsolutions.de/index.php/downloads
    BI? Da war doch noch was: http://www.ftsolutions.de

  7. #19
    Registriert seit
    Nov 2009
    Beiträge
    208
    das wird gemacht, um eine 'vernünftige' BI Lösung zu füttern

  8. #20
    Registriert seit
    Feb 2001
    Beiträge
    20.241
    Tut mir leid, aber das kann ich nicht glauben.
    Eine "vernünftige" BI kann auf die nativen Daten zugreifen und benötigt keine Verarbeitungsschritte dieser Art.
    Dienstleistungen? Die gibt es hier: http://www.fuerchau.de
    Das Excel-AddIn: https://www.ftsolutions.de/index.php/downloads
    BI? Da war doch noch was: http://www.ftsolutions.de

  9. #21
    Registriert seit
    Nov 2009
    Beiträge
    208
    Das könnte Sie sicherlich, und müßte dann diese Logik, (die niemand mehr allumfänglich erklären kann) nachbilden.
    Also wurde definiert welche Daten im BI drin sein sollten und wir haben ermittelt wo wir diese Infos schon jetzt zeigen oder woher diese Daten in welchen Fällen zu holen sind.
    Bei einem aktiven Datenbestand von mehreren Millionen Fällen teilweise vor 1970 entstanden und u.a. aus rechtlichen Gründen nicht in alles mögliche neue übernommen, halt sehr Komplex.

Similar Threads

  1. Antworten: 1
    Letzter Beitrag: 08-06-15, 11:18
  2. Antworten: 6
    Letzter Beitrag: 22-04-14, 14:30
  3. verschiedene ALTE Sachen...
    By HEMO in forum NEWSboard Server & Hardware Markt
    Antworten: 0
    Letzter Beitrag: 03-04-03, 14:20
  4. Unterschiedliche Schreib-/Lesefehlerraten
    By systemer in forum IBM i Hauptforum
    Antworten: 0
    Letzter Beitrag: 28-11-02, 08:57
  5. Antworten: 3
    Letzter Beitrag: 29-10-01, 10:07

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • You may not post attachments
  • You may not edit your posts
  •