Hohe Datenqualitätsansprüche an SAP BW Systeme
SAP BW Systeme sammeln Daten aus unterschiedlichen Quellsystemen ein. Diese werden daraufhin transformiert, integriert und aggregiert um die Daten dann abnehmenden Systemen zur Verfügung zu stellen. Dies können beispielsweise Reporting Tools oder analytische Systeme sein. Da diese Daten oftmals der Entscheidungsfindung dienen, ist die Sicherstellung der Datenqualität in SAP BW aufgrund des mehrstufigen Daten-Verarbeitungsprozesses unabdingbar.
Herausforderungen der Sicherstellung der Datenqualität im SAP BW System
Aus unserer langjährigen Erfahrung bei unseren Kunden liegen die Kern-Herausforderungen zur Qualitätssicherung der Daten in einem SAP BW System in den folgenden Punkten:
- Datenfehler führen zu falschen Entscheidungen und führen zu Reputationsverlust. Deshalb verlieren Fachbereiche schnell das Vertrauen in das Reportingsystem
- Datenfehlerkorrekturen in einem SAP BW System sind generell sehr aufwendig und zeitintensiv
- Um Datenfehler nicht erst im Report zu erkennen, werden Quality-Checks im Datenfluss an verschiedenen Ebenen implementiert. In der Regel erfolgt dieses mittels entsprechender ABAP-Programmierungen, direkt im SAP BW System in den Transformationsroutinen durch die IT Abteilung
- Große Datenmengen in einem SAP BW System bedingen eine sehr hohe Anzahl an qualitätssichernden Einzelplausibilisierungen
- Erstellung, Entwicklung und Wartung dieser Programme bedeuten einen hohen Aufwand für die IT
- Fachbereiche sind (dadurch) abhängig von den Kapazitäten der IT
- Erstellung und Pflege von Quality-Checks dauert oftmals (viel) zu lang
Um diese Herausforderungen zu lösen, müssten Fachbereiche in die Lage versetzt werden, ohne IT Know-how folgende Dinge selbst zu tun: 1. QualityChecks eigenständig und unabhängig im Self-Service (also ohne Programmierung) erstellen und pflegen. Und 2. im Fehlerfall selbst definieren können, ob die Verarbeitung im SAP BW System fortgeführt oder abgebrochen werden soll.
Q-THOR: Datenqualitätssicherung in SAP BW im Self-Service
Aus der Idee Fachbereichen eine Lösung zur Verfügung zu stellen um Quality-Checks im Self-Service eigenständig anzulegen und deren Ausführung einzuplanen ist das Produkt Q-THOR entstanden. Mit Q-THOR kann sowohl die Qualität der Daten im SAP BW System sichergestellt werden, als auch die Verarbeitung der Daten gesteuert werden:
Alle Bilder auf dieser Seite © 2022. BIG.Cube GmbH. Alle Rechte vorbehalten.
Das Zusammenspiel zwischen Q-THOR und SAP BW
Um mit Q-THOR Daten in SAP BW zu prüfen wird das SAP BW direkt in Q-THOR als Datenquelle konfiguriert. Hierdurch können Anwender:innen die zu prüfenden Daten aus dem SAP BW System in der Checkanlage auswählen und die Plausibilisierungen eigenständig definieren. Im nächsten Schritt wird dann die Ausführung dieser Quailty-Checks in einem Scheduler eingeplant.
In SAP BW besteht die Möglichkeit vor jedem Verarbeitungsschritt der Daten einen Scheduler in Q-THOR zur Ausführung der Quality-Checks zu triggern. Dies geschieht über einen eigenen Q-THOR Prozess direkt in SAP BW. Der Scheduler führt dann die Quality-Checks direkt auf den SAP BW Daten aus. Über die bei der Checkanlage in Q-THOR festgelegte KPI-Definition wird ein entsprechender Return-Code an das SAP BW System zurückgegeben. Dieser Return-Code wird vom SAP BW System ausgewertet und die weitere Verarbeitung entsprechend des Ergebnisses gesteuert. In Q-THOR wird der aktuelle Status je Verarbeitungsebene in SAP BW und der Beladungsfortschritt der Daten in einem Dashboard überwacht.
Q-THOR verändert keine Standardprozesse in SAP BW. Es ist vielmehr ein Tool, um die Datenqualität von Daten außerhalb des SAP BW mit den eigens definierten Qualitätsstandards überwachen zu können. Darüber hinaus können beliebig viele Quality-Gates auch schon vor der Beladung ins SAP BW erfolgen. Dies kann getan werden, um etwa Quelldaten in den Quellsystemen zu prüfen, wo sie zum ersten Mal erstellt wurden. Mit Q-THOR werden Fachbereiche dazu befähigt den gesamten Datenfluss von Quelle, über SAP BW Backend bis hin zum Reporting an einer zentralen Stelle grafisch zu überwachen. Somit können Datenfehler frühzeitig erkannt und behoben werden.
Fazit
Durch den Einsatz von Q-THOR zur Plausibilisierung der Daten in einem SAP BW System können die für IT-Abteilungen aufwendigen Umsetzungen und Wartungen von ABAP Programmen entfallen. Sämtliche Quality-Checks von Daten können von Fachbereichen und Business-Usern eigenständig gepflegt und deren Ergebnisse kontrolliert werden. Da diese Nutzer ohnehin zumeist die Data Owner sind, werden somit genau die richtigen Personen mit einem sehr mächtigen Werkzeug ausgerüstet um schnell und effizient ihre Checks anzulegen und bei Bedarf anzupassen.
Verfasst von Tom Schütz
Beitrag teilen
Weitere spannende Themen aus unserem Newsroom
Shortcuts für SAP BW in Eclipse
In diesem Blogbeitrag werden fünf einfache Shortcuts erläutert, mit denen...
Mehr lesenSAP HANA Transport mit MS Azure Pipelines
In diesem Beitrag wird das Transport Tool MS Azure Pipelines...
Mehr lesenErfolgsfaktoren für eine SAP BW/4HANA Migration
In diesem Beitrag wird aufgezeigt, welche Erfolgsfaktoren bei einer SAP...
Mehr lesenRückblick zum DSAG Jahreskongress 2022
Diese Trends wurden auf dem DSAG Jahreskongress 2022 deutlich:
- SAP-On-Premise immer noch Nr. 1: Die Bedeutung von SAP-On-Premise-Lösungen wird zwar weiter abnehmen, aber dennoch auf einem hohen Niveau verharren
- Da gleichzeitig Cloud-Lösungen wichtiger werden, ist ein Trend zu erkennen: Die Zukunft ist hybrid
- Neben der technischen Herausforderungen stehen viele Unternehmen vor Veränderungen, die die Digitalisierung, die Transformation und der Umbruch der heutigen Zeit mit sich bringen
- Im Bereich SAP Analytics zeigte sich auf dem DSAG Jahreskongress, dass die SAP mit der SAP BW Bridge ein automatisiertes Konvertierungstool für den Übergang von SAP BW in die SAP Data Warehouse Cloud bereit stellt
- In der Praxis stehen viele Unternehmen allerdings zunächst vor einer Migration auf BW on HANA oder BW/4HANA
- Auch das Thema Nachhaltigkeit fand in verschiedensten Facetten Anklang auf dem DSAG Jahreskongress. Von der Umsetzung einzelner Maßnahmen zB. bei der deutschen Post bis hin zum aussagekräftigen ESG Reporting
Wir freuen uns bereits auf den DSAG Jahreskongress 2023!
Eindrücke aus Leipzig




Fotocredit: © BIG.Cube
Beitrag teilen
Weitere spannende Themen aus unserem Newsroom
Shortcuts für SAP BW in Eclipse
In diesem Blogbeitrag werden fünf einfache Shortcuts erläutert, mit denen die Arbeit mit dem Tool...
Mehr lesenErfolgsfaktoren für eine SAP BW/4HANA Migration
In diesem Beitrag wird aufgezeigt, welche Erfolgsfaktoren bei einer SAP BW/4HANA Migration bestehen.
Mehr lesenRückblick zum DSAG-Partnertag SAP BW/4HANA, Analytics und hybride Landschaften in Präsenz
Diese Themen wurden auf dem DSAG-Partnertagrund um BW/4, Analytics und hybride Landschaften diskutiert.
Mehr lesenQ-THOR – Zertifiziert von der SAP
Die SAP hat unsere Standardsoftware zur nachhaltigen Steigerung und Sicherstellung der Datenqualität „Q-THOR“ offiziell für den Einsatz auf SAP HANA 2.0 über das SAP Integrationsszenario HANA-APP 2.0 zertifiziert. Mit dieser Zertifizierung stellt die SAP sicher, dass Lösungen von externen Anbietern sicher in SAP Landschaften integriert werden können. Die Software ist nun offiziell im SAP certified solutions directory zu finden. Welche Schritte Q-THOR dabei in dem Zertifizierungsprozess durchlaufen hat und was die Zertifizierung für uns und unsere Kunden bedeutet, erfahren Sie im folgenden Blogbeitrag.
Folgenden Zertifizierungsprozess hat Q-THOR durchlaufen
Im Zuge des Q-THOR Zertifizierungsprozesses wurden von der SAP u.a. die nachfolgenden Prozessschritte angefordert und überprüft:
- Validierung der SAP HANA integrierten Architektur
- Bereitstellung der Funktionsbeschreibung von Q-THOR
- Überprüfung sämtlicher Test-Cases
- Präsentation des Datensicherheitskonzepts
- Installation der Software Q-THOR auf einem HANA System anhand eines Installation Guides
- Durchführung unterschiedlicher Use-Cases in Q-THOR und Validierung der Core-Funktionen
Vorteile der Zertifizierung für (künftige) Anwender
All diese Schritte wurden erfolgreich durchlaufen, so dass am Ende des Prozesses Q-THOR von der SAP zertifiziert wurde. Somit ist sichergestellt und von der SAP attestiert, dass sich Q-THOR problemlos installieren lässt. Zudem stellt die SAP sicher, dass sich die Software reibungslos in die Systemlandschaft integrieren lässt und Q-THOR verlässlich auf der HANA läuft.
Die generische Architektur von Q-THOR unterstützt Sie auch auf Non-SAP Landschaften
Q-THOR überzeugt durch eine vollständig generische Architektur und integriert sich einfach in die System- und Datenlandschaft, ohne diese zu verändern.
Die Landschaft kann sowohl SAP-basiert als auch Non-SAP-basiert sein. Dabei kann die Datenbeladung und -integration für Q-THOR auf verschiedene Arten erfolgen, abhängig beispielsweise von Ihrer Systemlandschaft und Ihren Anforderungen an die Verfügbarkeit.
Sie möchten mehr über Q-THOR erfahren?
Beitrag teilen
Weitere spannende Themen aus unserem Newsroom
Shortcuts für SAP BW in Eclipse
In diesem Blogbeitrag werden fünf einfache Shortcuts erläutert, mit denen...
Mehr lesenDatenqualität in SAP BW: Daten ohne Programmierung plausibilisieren
Unsere Standard-Software Q-THOR kann die Datenqualität in SAP BW Systemen...
Mehr lesenSuccess-Story: Datenqualitätsmanagement in der MEAG mit Q-THOR
So stellt die MEAG seit 2016 ein erfolgreiches Datenqualitätsmanagement mit...
Mehr lesenSuccess-Story:
Datenqualitätsmanagement in der MEAG mit der Standard-Software Q-THOR
Qualität der Daten verbessern und Fehler schnellstmöglich korrigieren
Über 200 MEAG User in verschiedenen Systemen
Seit 2016 konnten mehrere IT-Systeme, z.B. Teile von operativen Systemen sowie das Risikomanagementsystem, angebunden werden. 2020 konnte das System DQM bereits von über 100 MEAG Usern aktiv genutzt werden. Im Rahmen weiterer Projekte wurden weitere operative Systeme angebunden.
Dadurch werden in diesem Use-Case nun etwa 750 tägliche automatisierte Plausibilisierungstrigger, auf bis zu zehn GB Daten pro Tag für weitere knapp 100 User an mehreren Standorten und mehreren Teams durchgeführt.
DQM als wichtiger Baustein der Digitalisierung
Mit dem DQM werden zusätzliche Schadensrisiken aufgedeckt und Schäden vermieden. Darüber hinaus wird die Identifizierung und Bearbeitung von fehlerhaften Daten deutlich effizienter. „DQM ist ein wichtiger Baustein der Digitalisierung im Immobilienbereich und verbessert die Datenqualität nachhaltig“, so Siegfried Korb, Head of Property Management Germany bei MEAG MUNICH ERGO Assetmanagement GmbH.
Neben den Plausibilisierungen wurde auch ein bestehendes Freigabetool durch eine vollintegrierte automatisierte Plausibilisierung in DQM abgelöst.
Die Erfolgsbilanz mit Q-THOR
Im Ergebnis kann das System DQM auf eine großartige Erfolgsbilanz blicken: Mehrere hundert aktive Nutzer in einer zweistelligen Anzahl von Teams und knapp 2.000 durchgeführte transaktionale Plausibilisierungen pro Tag. Nächster Meilenstein wird die Erweiterung für das Thema IFRS9 sein. Dadurch wird das System DQM durch den Konzern zur Datenzulieferung und Plausibilisierung genutzt und der Userkreis mehr als verdoppelt.
Durch die externe Standard-Software Q-THOR von der BIG.Cube GmbH stellt die MEAG somit ihre Datenqualität unter anderem im DQM sicher.
Beitrag teilen
Weitere spannende Themen aus unserem Newsroom
BIG.Cube ist ein Great Place to Work – Bayern und ITK
Die BIG.Cube wurde dieses Jahr von Great Place to Work...
Mehr lesenShortcuts für SAP BW in Eclipse
In diesem Blogbeitrag werden fünf einfache Shortcuts erläutert, mit denen...
Mehr lesenEisstockschießen mit der BIG.Cube
Die Mitarbeitenden der BIG.Cube waren gemeinsam nach der Arbeit Eisstockschießen....
Mehr lesenRückblick zum Stammdaten Forum von Deutsche Kongress 2021
Auf dem Stammdaten Forum der deutschen Kongress in Düsseldorf standen vor allem die Themen Digitale Transformation, Stammdaten und Data Governance im Mittelpunkt. So lieferte der Austausch beispielsweise interessante Einblicke in den aktuellen Stand der Data Governance bei den teilnehmenden Unternehmen aus unterschiedlichen Branchen. Von Trends im Stammdatenmanagement über die Datenqualität als Erfolgsfaktor bis hin zur erfolgreichen Implementierung einer Data-Governance-Struktur wurde in zahlreichen spannenden Workshops und Round Tables referiert und diskutiert.
Diese Trends wurden auf dem Stammdaten Forum deutlich:
- Data-driven ist das Ziel: Unternehmen sammeln immer mehr Daten. Dazu verändern sich die Technologien fortlaufend und der Bedarf an Informationen steigt. Damit aus Daten auch verwertbare Informationen werden, muss allerdings die Datenqualität einem gewissen Standard entsprechen
- Der Impuls für die Datenqualitätsstrategie kommt oft aus den Fachbereichen: Die Frage ist nicht ob das Thema Datenqualität in den Unternehmen angegangen wird, sondern wie es angegangen wird
- Ausbleibende Einnahmen als Folge von falschen Daten, Imageschäden und zu verbessernde Prozesse in Unternehmen sind Treiber der Datenstrategie
- Das Change-Management gewinnt bei großen Projekten immer mehr an Bedeutung
- Unternehmen wollen vermehrt die ihnen zur Verfügung stehenden Daten nutzen und von den Daten gesteuert werden. Darauf müssen aber die notwendigen Infrastrukturen, Prozesse sowie Arbeitsmethoden ausgerichtet werden
- Datenmanagement und Datenqualität sind also unmittelbar mit dem Unternehmenserfolg verbunden
Wir freuen uns bereits auf das StammdatenForum 2022!
Eindrücke aus Düsseldorf




Fotocredit: © BIG.Cube
Beitrag teilen
Weitere spannende Themen aus unserem Newsroom
BIG.Cube ist ein Great Place to Work – Bayern und ITK
Die BIG.Cube wurde dieses Jahr von Great Place to Work...
Mehr lesenShortcuts für SAP BW in Eclipse
In diesem Blogbeitrag werden fünf einfache Shortcuts erläutert, mit denen...
Mehr lesenEisstockschießen mit der BIG.Cube
Die Mitarbeitenden der BIG.Cube waren gemeinsam nach der Arbeit Eisstockschießen....
Mehr lesenDatenmigration:
Datenqualität mit Standard-Software sicherstellen
Von schmerzhaften Zeitverzögerungen und Budgetüberschreitungen
Kern-Herausforderungen einer Datenmigration
Der Erfahrung nach zeigen sich in fast allen durchgeführten Datenmigrations-Projekten folgende Kern-Herausforderungen:
- Verlässliche Aussagen über die Struktur von Daten und Inhalten ableiten
- Wachsende Aufwände für IT und Fachbereiche in der Implementierung von neuen Plausibilisierungen
- Effiziente und zeitnahe Durchführung von Datenbereinigungen
Eine Datenmigration ist nicht nur zeitaufwendig sondern auch kostenintensiv. Daher gilt es die Kern-Herausforderungen gleich zu Beginn in der Projekt- und Budgetplanung zu berücksichtigen. Das bedeutet allerdings nicht, dass die Planung von Budget und Zeit in Migrationsvorhaben mit schwindelerregenden Faktoren erhöht werden müssen.
Datenqualität in Migrationen
Bei der Datenmigration von Alt-Daten in ein neues System wird oft davon ausgegangen, dass die Daten bereits mit erwartetem Inhalt sowie im richtigen und vom neuen System erwarteten Format zur Verfügung stehen. Doch das ist leider zumeist nicht gegeben, so dass viel manueller Aufwand entsteht. Eine Standard-Software kann hier viel Zeit und Budget einsparen. Denn sie stellt einerseits die Verlässlichkeit der zu migrierenden Daten sicher und automatisiert andererseits auch die Datenbereinigung. In der nachfolgenden Abbildung wird ein mögliches Szenario dafür aufgezeigt, hier am Beispiel der Standard-Software Q-THOR:
Ein erster Meilenstein ist die Durchführung von Data Profiling Analysen auf den zu migrierenden Datenbestand. Auf Basis dieser Ergebnisse können dann die notwendigen Datenplausibilisierungen angelegt und ausgeführt werden. Schließlich können die fehlerhaften Daten untersucht und Bereinigungsaufträge für diese Daten generiert werden.
Erfolgsfomel für eine Datenmigration: Expertenwissen + Standard-Software
Wer schon in Datenmigrationen gearbeitet hat, wird bestätigen: Expertenwissen in der Datenanalyse ist unerlässlich. Dazu ist ein weiterer Erfolgsfaktor der Einsatz einer Standard-Software. Dieser wird zunehmend von Projektleitern entdeckt. Denn mit einer Kombination aus Expertenwissen und Standard-Software werden Migrationen verlässlicher geplant und erfolgreicher durchgeführt. Zudem lassen sich die für das Migrationsvorhaben definierten Quality Checks der Standard-Software später im produktiven Betrieb des neuen Systems wiederverwenden. Eine Standard-Software, die sich unter anderem schon in Migrationsprojekten bewiesen hat und genau diese Vorteile aufweist, ist die Software Q-THOR.
Verfasst von Tom Schütz
Beitrag teilen
Weitere spannende Themen aus unserem Newsroom
BIG.Cube ist ein Great Place to Work – Bayern und ITK
Die BIG.Cube wurde dieses Jahr von Great Place to Work...
Mehr lesenShortcuts für SAP BW in Eclipse
In diesem Blogbeitrag werden fünf einfache Shortcuts erläutert, mit denen...
Mehr lesenEisstockschießen mit der BIG.Cube
Die Mitarbeitenden der BIG.Cube waren gemeinsam nach der Arbeit Eisstockschießen....
Mehr lesenRückblick 4. Jahresforum Stammdatenmanagement
Datenqualität als eines der wichtigen Themen
Data-Driven als neues Ziel
Eindrücke aus Wien



Fotocredit: © imh
Beitrag teilen
Weitere spannende Themen aus unserem Newsroom
BIG.Cube ist ein Great Place to Work – Bayern und ITK
Die BIG.Cube wurde dieses Jahr von Great Place to Work...
Mehr lesenShortcuts für SAP BW in Eclipse
In diesem Blogbeitrag werden fünf einfache Shortcuts erläutert, mit denen...
Mehr lesenEisstockschießen mit der BIG.Cube
Die Mitarbeitenden der BIG.Cube waren gemeinsam nach der Arbeit Eisstockschießen....
Mehr lesenQ-THOR am 23. & 24.11. auf dem Stammdaten Forum in Düsseldorf
Q-THOR ist als Standard-Software für Datenqualitätssicherung Sponsor des Stammdaten Forums von Deutsche Kongress, das am 23. und 24. November 2021 in Düsseldorf stattfinden wird. Im Rahmen des Workshops „Die Datenqualität als Erfolgsfaktor im Data-Driven Management“ wird Q-THOR dort am 23. November um 15:00 Uhr vorgestellt. Dabei wird es vor allem um folgende 3 Themen gehen:
- Wie hoch ist die Transparenz der Datenqualität in Ihrem Unter­nehmen?
- Wie kann der Data Quality Layer einfach und schnell in die unternehmenseigene Datenarchitektur integriert werden?
- Wie sichert die Standardsoftware "Q-THOR" Datenqualität in Echtzeit?