-
... ist wohl in erster Linie eine Frage des Mengenvolumens und der Anforderungen, die MQTs sind auch nix für größeres Mengenvolumen, da wird immer alles platt gemacht und neu gezogen und staffeln darf man die auch nicht (MQT auf MQT). Mit den Functions ist das Problem nicht internal oder user defined, sondern deterministic oder nicht. Beim Optimize werden dann deterministic functions gecached - weiter rein geht das nicht, weil der Optimizer nicht sieht, was drin passiert (weshalb ich auch von stored procedures mit Rückgabe RsultSet eher abrate).
D*B
-
Bzgl. der MQT ist ja nichts mehr hinzuzufügen.
Allerdings habe ich noch einige Anmerkungen zu Power-BI von Microsoft.
Sich in der Dokumentation zurecht zu finden ist ja doch ganz schön mühsam, aber auf die Restriktionen stößt man schnell.
Mit der Cloud haben die Restriktionen wirklich nichts zu tun.
Max. 1GB als Dataset, max. 250MB beim Import eines Excel.
Das klingt recht viel, wenn man allerdings mehrere Tabellen (und das braucht man ja durchaus) für ein Datenmodell importieren muss, ist das u.U. nicht so viel.
Es ist sicherlich von Vorteil, dass die Daten vom Bericht getrennt werden, d.h., es gibt ein Dataset und die Power-BI-Datei, in der allerdings das Dataset integriert wird, also eine Trennung so gar nicht erfolgt.
Möchte man das nicht, so sind doch wieder zusätzliche kostenpflichtige Module, auf denen Power-BI nähmlich aufsetzt, erforderlich.
Dazu gehört z.B. Power-BI-Rest-API, mit dem man seine Daten automatisch aktualisieren kann.
In der Free-Version allerdings nur 1x täglich mit 10.000 Zeilen je Stunde (was immer das soll).
Möchte man die selben Daten in unterschiedlichen Berichten nur nach unterschiedlichen Kriterien bearbeiten, so ist das Power-BI-Gateway erforderlich. Ansonten lädt und aktualisiert mas sich die Daten je Bericht, was ein nicht zu verachtender Overhead ist.
Im Bericht selber muss ich die Abfrage bearbeiten um das Ergebnis zu präsentieren.
Ich habe mir also eine Tabelle mit. ca. 2Mio Sätzen importiert. Dies dauert nun mal, ist ja nicht wenig, einige Minuten.
Dann habe ich nach einer Spalte sortiert, folgilich werden die Daten aktualisert, d.h., die 2Mio Sätze werden wieder importiert.
Gut, man kann die Aktualisierung ja abschalten und dann erst mal die Abfrage weitestgehend bauen.
Ist man fertig und aktualisiert, werden erst mal wieder die 2Mio Sätze importiert, und das dauert.
Komme ich nun zum Dashboard.
Hier ist das Bauen eines Berichtes doch sehr mühsam. Von schneller Berichtserstellung ist man da doch weit entfernt. Sicherlich kann man dann immer mal auf Basis eines vorandenen Berichtes aufbauen, aber spätestens, wenn die Datenbasis eine andere ist, fängt man immer wieder von vorne an.
Hier vermisse ich doch einige sehr einfache Funktionen.
Nun, was das Thema PDF und Mail angeht, so ist das nicht zu verachten. Es gibt genug User, die sich nicht mit der etwas komplizierten Bedienung der Oberfläche herumschlagen wollen sondern einfach nur eine schöne PDF mit ihren persönlichen Daten haben möchten.
D.h., ich baue genau einen Bericht (Dashboard) und rufe diesen automatisiert mit einem extern übergebenen Filter (z.B. je Vertreter) auf, lass die PDF erstellen und maile diesen dann.
Diese Funktion sehe ich hier nicht. Außerdem kann sich ein User das gesamte Dataset ansehen auch wenn er ggf. nicht berechtigt ist.
Die Dokumentation des Produktes ist äußerst dürftig und besteht i.W. nur aus Beispielen.
Eine genaue Erklärung der Bedienung (wie man sie von anderen Microsoft-Produkten durchaus gewohnt ist) finde ich hier überhaupt nicht. Dazu werden die Internetseiten extrem langsam aufgebaut.
Bei einem Logistiker werden verschiedene Zeiger, Listen, Kennzahlen in einem Dashboard an einem übergroßen Monitor angezeigt. Hier wird der Arbeitsvorrat sowie der Grad der Fertigstellung der 10 wichtigsten Kunden dargestellt. Alle 5 Minuten werden die Daten automatisch aus der AS/400 aktualisiert.
Dies ist ohne manuellen Eingriff mit Power-BI nicht möglich. Hierzu muss ich selber den Aktualisierungsknopf drücken.
Bei der Automatisierung des Power-BI darf ich das in der Free-Version genau 1x täglich, in der Proversion 8x Täglich.
Meine ganz persönliche Meinung (weil hier ja immer von mangelnder Analyse gesprochen wird):
Ein richtiges komfortables BI ist das nicht.
Aber wer im weitesten Sinn ja auch mit Excel-Pivot und Excel-Power-Pivot zufrieden ist kann ja durchaus so verfahren.
Similar Threads
-
By JonnyRico in forum IBM i Hauptforum
Antworten: 2
Letzter Beitrag: 31-03-03, 16:21
-
By Fuerchau in forum IBM i Hauptforum
Antworten: 4
Letzter Beitrag: 06-02-03, 16:22
-
By Mädele in forum IBM i Hauptforum
Antworten: 2
Letzter Beitrag: 09-12-02, 12:56
-
By Stefan_R in forum IBM i Hauptforum
Antworten: 0
Letzter Beitrag: 14-12-01, 13:06
-
By delphix in forum IBM i Hauptforum
Antworten: 7
Letzter Beitrag: 21-11-01, 16:24
Berechtigungen
- Neue Themen erstellen: Nein
- Themen beantworten: Nein
- You may not post attachments
- You may not edit your posts
-
Foren-Regeln
|
Erweiterte Foren Suche
Google Foren Suche
Forum & Artikel Update eMail
AS/400 / IBM i
Server Expert Gruppen
Unternehmens IT
|
Kategorien online Artikel
- Big Data, Analytics, BI, MIS
- Cloud, Social Media, Devices
- DMS, Archivierung, Druck
- ERP + Add-ons, Business Software
- Hochverfügbarkeit
- Human Resources, Personal
- IBM Announcements
- IT-Karikaturen
- Leitartikel
- Load`n`go
- Messen, Veranstaltungen
- NEWSolutions Dossiers
- Programmierung
- Security
- Software Development + Change Mgmt.
- Solutions & Provider
- Speicher – Storage
- Strategische Berichte
- Systemmanagement
- Tools, Hot-Tips
Auf dem Laufenden bleiben
|
Bookmarks