[NEWSboard IBMi Forum]
  1. #1
    Registriert seit
    Jun 2006
    Beiträge
    6

    Commitment - max. Datensätze

    Hallo liebe Leute,

    mal eine evtl. "blöde" Frage.

    Bin im Forum auf folgende Aussage von dem geschätzten Kollegen Fuerchau getroffen.

    ....Klar stieß man damals an die Commit-Grenze von 32766 Sätzen (jetzt ca. 0,5 Mio). Aber wer benötigt denn schon so große Transaktionen......
    Gibt es eine Obergrenze an Datenvolumen, die man mit einem Commit verarbeiten kann?

    Wenn ja, besteht die Obergrenze bei ca. 500.000 Datensätzen?

    Ich wundere mich gerade etwas darüber, dass es diese Grenze geben mag.

    Ich danke euch schon einmal für eure Antworten, denn darauf bin ich sehr gespannt.

  2. #2
    Registriert seit
    Jan 2001
    Beiträge
    340
    Die Frage an sich ist nicht blöde ...

    Aber, wenn man Internet Zugang hat, kann man im IBM i 6.1 Information Center unter

    -> Database -> Commitment Control -> Commitment Control for batch applications

    diese Antwort spielend leicht finden.

    Und, wer hier posten kann, hat doch Internet -- oder ?

    R.

  3. #3
    Registriert seit
    Jun 2006
    Beiträge
    6
    .... ja super, und wie ist die Antwort?

    Nein, natürlich gefunden!

  4. #4
    Registriert seit
    Feb 2001
    Beiträge
    20.236
    Man muss auch daran denken, dass im Zweifel ein Rollback von 0.5 Mio Sätzen auch ganz schön lange dauert.
    Dienstleistungen? Die gibt es hier: http://www.fuerchau.de
    Das Excel-AddIn: https://www.ftsolutions.de/index.php/downloads
    BI? Da war doch noch was: http://www.ftsolutions.de

  5. #5
    Registriert seit
    Jan 2001
    Beiträge
    340
    Zitat :

    "A batch job can lock a maximum of 500 000 000 records."

    Und das dauert dann wirklich ... ;-)

    R.

  6. #6
    Registriert seit
    Jun 2006
    Beiträge
    6
    Ja, das dauert wirklich. Leider am eigenen Leib erfahren (2x sogar).

    Evtl. mal zum Verständnis.

    Fuerchau schreibt, 0.5 Mio Datensätze.
    rmittag und IBM schreiben von 500 000 000 Datensätzen (500 Mio.).

    ???? - Ich vertrau jetzt mal IBM.

  7. #7
    Registriert seit
    Feb 2001
    Beiträge
    20.236
    Das ist alles Releaseabhängig:

    Bis V3R2 ca. 32K-Sätze
    Bis V5R? ca. 0.5 Mio
    Ab V? ca. 500 Mio
    Dienstleistungen? Die gibt es hier: http://www.fuerchau.de
    Das Excel-AddIn: https://www.ftsolutions.de/index.php/downloads
    BI? Da war doch noch was: http://www.ftsolutions.de

  8. #8
    Registriert seit
    Mar 2002
    Beiträge
    5.287
    Commitment Controll ist eine Transaktionssteuerung!!! Wenn jemand mit seinen Transaktionen auch nur annähernd an die Uralt Grenze kommt, bei dem ist was mit dem Design krumm!!!

    D*B

    Zitat Zitat von cziege Beitrag anzeigen
    Hallo liebe Leute,

    mal eine evtl. "blöde" Frage.

    Bin im Forum auf folgende Aussage von dem geschätzten Kollegen Fuerchau getroffen.

    Gibt es eine Obergrenze an Datenvolumen, die man mit einem Commit verarbeiten kann?

    Wenn ja, besteht die Obergrenze bei ca. 500.000 Datensätzen?

    Ich wundere mich gerade etwas darüber, dass es diese Grenze geben mag.

    Ich danke euch schon einmal für eure Antworten, denn darauf bin ich sehr gespannt.
    AS400 Freeware
    http://www.bender-dv.de
    Mit embedded SQL in RPG auf Datenbanken von ADABAS bis XBASE zugreifen
    http://sourceforge.net/projects/appserver4rpg/

  9. #9
    Registriert seit
    Feb 2001
    Beiträge
    20.236
    Mach mal einen CHGPF mit Source auf eine journalisierte Datei mit >250Mio Sätzen.
    Nach stundenlangem Rumkopieren wird dann ein Rollback gemacht, da nun mal das schon Kopieren die Grenze sprengt.

    Das System kann damit schon mal ein paar Tage stillgelegt werden.
    Dienstleistungen? Die gibt es hier: http://www.fuerchau.de
    Das Excel-AddIn: https://www.ftsolutions.de/index.php/downloads
    BI? Da war doch noch was: http://www.ftsolutions.de

  10. #10
    Registriert seit
    Aug 2009
    Beiträge
    121

    Hauptspeichergröße beachten!

    Was man in diesem Zusammenhang vielleicht auch noch erwähnen sollte ist, daß für jeden unter Commit geänderten Datensatz eine Sperre gesetzt wird. Meines Wissens sind für jede Satzsperre 256 Bytes erforderlich (sogenannter "Hold Record Block"), d.h. wenn man das Maximum von 500.000.000 Sätzen unter Commit ändert, werden über 110 GB für die Hold Record Blocks benötigt (die Sätze selber sind noch nicht einmal dabei). Die Erfahrung zeigt, daß es extrem langsam wird, wenn die Hold Record Blocks nicht in den Hauptspeicher passen.

    Mit freundlichen Grüßen,
    Christian Bartels.

Similar Threads

  1. Datensätze blockweise auslesen
    By Easyrider in forum NEWSboard Programmierung
    Antworten: 9
    Letzter Beitrag: 20-06-08, 06:32
  2. sql Anzahl Datensätze in Zweit-Datei
    By rr2001 in forum IBM i Hauptforum
    Antworten: 4
    Letzter Beitrag: 13-12-06, 14:04
  3. Anzahl gelöschter Datensätze in PF
    By Der_Unwissende in forum IBM i Hauptforum
    Antworten: 2
    Letzter Beitrag: 20-10-06, 08:32
  4. Datensätze in DB mittels VB einfügen
    By Toschie in forum NEWSboard Programmierung
    Antworten: 9
    Letzter Beitrag: 21-06-06, 11:53
  5. PF anzahl der Datensätze anzeigen
    By linguin in forum IBM i Hauptforum
    Antworten: 2
    Letzter Beitrag: 10-08-05, 13:12

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • You may not post attachments
  • You may not edit your posts
  •