Hohe Da­ten­­quali­­tät­s­an­­sprü­che an SAP BW Sys­te­me

SAP BW Sys­­te­­me sammeln Da­­ten aus un­ter­schied­li­chen Quell­sys­te­men ein. Die­se wer­den da­rauf­hin trans­for­mie­rt, in­te­grie­rt und ag­gre­gie­rt um die Da­ten dann ab­neh­men­den Sys­te­men zur Ver­fü­gung zu stellen. Dies kön­nen bei­spiels­wei­se Re­por­ting Tools oder ana­ly­ti­sche Sys­te­me sein. Da die­se Da­ten oft­mals der Ent­schei­dungs­fin­dung die­nen, ist die Si­cher­stel­lung der Da­te­nqua­li­tät in SAP BW aufgrund des mehr­stu­fi­gen Da­ten-Ver­ar­bei­tungs­pro­zesses un­ab­ding­bar.

He­raus­for­de­run­gen der Si­cher­stel­lung der Da­ten­qua­li­tät im SAP BW Sys­tem

Aus un­se­rer lang­jäh­ri­gen Er­fah­rung bei un­se­ren Kun­den lie­gen die Kern-He­raus­for­de­rung­en zur Qua­li­täts­si­che­rung der Da­ten in ei­nem SAP BW Sys­tem in den fol­gen­den Punk­ten:

  • Da­ten­feh­ler füh­ren zu fal­schen Ent­schei­dung­en und füh­ren zu Re­pu­ta­tions­ver­lust. Deshalb verlieren Fach­be­rei­che schnell das Ver­trau­en in das Re­por­ting­sys­tem
  • Da­ten­feh­ler­ko­rrek­tu­ren in ei­nem SAP BW Sys­tem sind ge­ne­rell sehr auf­wen­dig und zeit­in­ten­siv
  • Um Da­ten­feh­ler nicht erst im Re­port zu er­ke­nnen, wer­den Quality-Checks im Da­ten­fluss an ver­schie­de­nen Ebe­nen im­ple­men­tiert. In der Re­gel erfolgt dieses mit­tels ent­spre­chen­der ABAP-Pro­gra­m­mie­run­gen, di­rekt im SAP BW Sys­tem in den Trans­for­ma­tions­rou­ti­nen durch die IT Ab­tei­lung
  • Gro­ße Da­ten­men­gen in ei­nem SAP BW Sys­tem be­dingen ei­ne sehr hohe An­zahl an qua­li­täts­sichern­den Ein­zel­plau­si­bi­li­sie­run­gen
  • Er­stel­lung, Ent­wick­lung und War­tung die­ser Pro­gra­mme be­deu­ten einen hohen Aufwand für die IT
  • Fach­be­rei­che sind (da­durch) ab­häng­ig von den Ka­pa­zi­tä­ten der IT
  • Erstellung und Pflege von Quality-Checks dau­ert oft­mals (viel) zu lang

Um die­se He­raus­for­de­rung­en zu lö­sen, müss­ten Fach­be­reiche in die La­ge ver­setzt wer­den, oh­ne IT Know-how folgende Dinge selbst zu tun: 1. Qua­li­ty­Checks ei­gen­stän­dig und un­ab­häng­ig im Self-Ser­vice (also oh­ne Pro­gra­mmie­rung) er­stel­len und pflegen. Und 2. im Feh­ler­fall selbst de­fi­nie­ren können, ob die Ver­ar­bei­tung im SAP BW Sys­tem fort­ge­führt oder ab­ge­bro­chen wer­den soll.

Q-THOR: Da­­ten­­qua­­li­­täts­­si­­che­­rung in SAP BW im Self-Ser­­vice

Aus der Idee Fach­be­reichen ei­ne Lö­sung zur Ver­fü­gung zu stel­len um Quality-Checks im Self-Ser­vice ei­gen­stän­dig an­zu­le­gen und de­ren Aus­füh­rung ein­zu­pla­nen ist das Pro­dukt Q-THOR entstanden. Mit Q-THOR kann so­wohl die Qua­­li­­tät der Da­ten im SAP BW Sys­­tem si­­cher­­ge­stellt wer­den, als auch die Ver­­ar­­bei­­tung der Da­­ten ge­steu­ert wer­den:

Datenqualität SAP Q-THOR

Alle Bilder auf dieser Seite © 2022. BIG.Cube GmbH. Alle Rechte vorbehalten.

Das Zusammen­spiel zwischen Q-THOR und SAP BW

Um mit Q-THOR Daten in SAP BW zu prüfen wird das SAP BW direkt in Q-THOR als Da­ten­que­lle kon­fi­gu­riert. Hier­durch können Anwender:innen die zu prü­fen­den Da­ten aus dem SAP BW Sys­tem in der Check­an­la­ge aus­wäh­len und die Plau­si­bi­li­sie­rung­en ei­gen­stän­dig de­fi­nie­ren. Im näch­sten Schritt wird dann die Ausführung die­ser Quailty-Checks in ei­nem Sche­du­ler einge­pla­nt.

In SAP BW be­steht die Mög­lich­keit vor je­dem Ver­ar­bei­tungs­schritt der Da­ten ei­nen Sche­du­ler in Q-THOR zur Aus­füh­rung der Qua­li­ty-Checks zu tri­ggern. Dies geschieht über ei­nen ei­ge­nen Q-THOR Pro­zess direkt in SAP BW. Der Sche­du­ler führt dann die Qua­li­ty-Checks di­rekt auf den SAP BW Da­ten aus. Über die bei der Check­an­la­ge in Q-THOR fest­ge­leg­te KPI-De­fi­ni­tion wird ein ent­spre­chen­der Re­turn-Code an das SAP BW Sys­tem zu­rück­ge­ge­ben. Die­ser Re­turn-Code wird vom SAP BW Sys­tem aus­ge­wer­tet und die wei­te­re Ver­ar­bei­tung ent­spre­chend des Er­geb­nis­ses ge­steu­ert. In Q-THOR wird der ak­tu­elle Sta­tus je Ver­ar­bei­tungs­ebe­ne in SAP BW und der Be­la­dungs­fort­schritt der Da­ten in ei­nem Dash­board überwacht.

Q-THOR ver­än­dert keine Stan­dard­pro­zes­se in SAP BW. Es ist vielmehr ein Tool, um die Da­ten­qua­li­tät von Daten au­ßer­halb des SAP BW mit den ei­gens de­fi­nier­ten Qua­li­täts­stan­dards über­wa­chen zu kö­nnen. Da­rü­ber hi­naus kön­nen be­lie­big vie­le Qua­li­ty-Gates auch schon vor der Be­la­dung ins SAP BW er­fol­gen. Dies kann ge­tan wer­den, um etwa Quell­da­ten in den Quell­sys­te­men zu prü­fen, wo sie zum er­sten Mal er­stellt wurden. Mit Q-THOR werden Fachbereiche dazu befähigt den ge­sam­ten Da­ten­fluss von Quel­le, über SAP BW Back­end bis hin zum Re­por­ting an ei­ner zen­tra­len Stel­le gra­fisch zu über­wa­chen. So­mit kön­nen Da­ten­feh­ler früh­zei­tig er­kannt und be­ho­ben wer­den.

Fazit

Durch den Ein­satz von Q-THOR zur Plau­si­bi­li­sie­rung der Da­ten in ei­nem SAP BW Sys­tem kön­nen die für IT-Abteilungen auf­wen­di­gen Um­setz­un­gen und War­tun­gen von ABAP Prog­ram­men ent­fal­len. Sämt­li­che Qua­li­ty-Checks von Da­ten kön­nen von Fach­be­reichen und Business-Usern ei­gen­stän­dig ge­pflegt und de­ren Er­geb­nis­se kon­tro­lliert wer­den. Da diese Nutzer ohnehin zumeist die Data Ow­ner sind, wer­den so­mit genau die richtigen Personen mit ei­nem sehr mäch­ti­gen Werk­zeug aus­ge­rüs­tet um schnell und effi­zient ih­re Checks anzu­le­gen und bei Be­darf an­zupas­sen.

Verfasst von Tom Schütz

Beitrag teilen

Weitere spannende Themen aus unserem Newsroom

Shortcuts für SAP BW in Eclipse

In diesem Blogbeitrag werden fünf einfache Shortcuts erläutert, mit denen...

Mehr lesen

SAP HANA Transport mit MS Azure Pipelines

In diesem Beitrag wird das Transport Tool MS Azure Pipelines...

Mehr lesen
Erfolgsfaktoren BW/4HANA Migration

Erfolgsfaktoren für eine SAP BW/4HANA Migration

In diesem Beitrag wird aufgezeigt, welche Erfolgsfaktoren bei einer SAP...

Mehr lesen

Rückblick zum DSAG Jahres­kongress 2022

„Auf der Suche nach … Erfolg“ lautete das Motto vom DSAG Jahres­kon­gress 2022, welcher vom 10.-13.10 in Leipzig statt­fand. Mit über 3.000 Besucher und Besucher­innen und 125 Aus­stellern stellt der DSAG Jahres­kongress einen wichtigen Termin dar, um sich gegen­seitig aus­zutauschen und um Neuig­keiten direkt von der SAP zu erfahren. Gleichzeitig wurden aber auch Forder­ungen an die SAP gestellt. In diesem Jahr war die BIG.Cube mit einem Stand vor Ort. Dabei stellten wir neben unserem kom­pletten Port­folio besonders die zwei Fokus­themen ESG Reporting mit SAP Analytics und Daten­qualität mit Q-THOR in den Vordergrund. So hat es wunder­bar gepasst, dass wir das Thema „Die Daten­qualität als Erfolgs­faktor im daten­getriebenen Unter­nehmen“ im Zuge einer Espresso-Session vor­stellen konnten.

Diese Trends wurden auf dem DSAG Jahres­kongress 2022 deutlich:

  • SAP-On-Premise immer noch Nr. 1: Die Bedeutung von SAP-On-Premise-Lösungen wird zwar weiter ab­nehmen, aber dennoch auf einem hohen Niveau ver­harren
  • Da gleich­zeitig Cloud-Lösungen wichtiger werden, ist ein Trend zu erkennen: Die Zukunft ist hybrid
  • Neben der technischen Heraus­forderungen stehen viele Unter­nehmen vor Ver­änderungen, die die Digi­talisierung, die Trans­formation und der Umbruch der heutigen Zeit mit sich bringen
  • Im Bereich SAP Analytics zeigte sich auf dem DSAG Jahres­kongress, dass die SAP mit der SAP BW Bridge ein autom­atisiertes Konvertierungs­tool für den Übergang von SAP BW in die SAP Data Warehouse Cloud bereit stellt
  • In der Praxis stehen viele Unter­nehmen allerdings zunächst vor einer Migration auf BW on HANA oder BW/4HANA
  • Auch das Thema Nach­haltigkeit fand in ver­schiedensten Facetten Anklang auf dem DSAG Jahres­kongress. Von der Umsetzung einzelner Maßnahmen zB. bei der deutschen Post bis hin zum aussage­kräftigen ESG Reporting

Wir freuen uns bereits auf den DSAG Jahres­kongress 2023!

Eindrücke aus Leipzig

Fotocredit: © BIG.Cube

Jetzt Kontakt aufnehmen

Beitrag teilen

Weitere spannende Themen aus unserem Newsroom

Shortcuts für SAP BW in Eclipse

In diesem Blogbeitrag werden fünf einfache Shortcuts erläutert, mit denen die Arbeit mit dem Tool...

Mehr lesen
Erfolgsfaktoren BW/4HANA Migration

Erfolgsfaktoren für eine SAP BW/4HANA Migration

In diesem Beitrag wird aufgezeigt, welche Erfolgsfaktoren bei einer SAP BW/4HANA Migration bestehen.

Mehr lesen

Rückblick zum DSAG-Partnertag SAP BW/4HANA, Analytics und hybride Landschaften in Präsenz

Diese Themen wurden auf dem DSAG-Partnertagrund um BW/4, Analytics und hybride Landschaften diskutiert.

Mehr lesen

Q-THOR – Zertifi­ziert von der SAP

Die SAP hat unsere Standard­software zur nach­haltigen Steiger­ung und Sicher­stellung der Daten­qualität „Q-THOR“ offiziell für den Ein­satz auf SAP HANA 2.0 über das SAP Integrations­szenario HANA-APP 2.0 zerti­fi­ziert. Mit dieser Zerti­fi­zierung stellt die SAP sicher, dass Lösungen von externen An­bietern sicher in SAP Land­schaften inte­griert werden können. Die Software ist nun offi­ziell im SAP certified solutions directory zu finden. Welche Schritte Q-THOR dabei in dem Zerti­fi­zierungs­pro­zess durch­laufen hat und was die Zerti­fi­zierung für uns und unsere Kunden be­deutet, erfahren Sie im folgenden Blog­beitrag.

Folgenden Zertifizierungs­prozess hat Q-THOR durch­laufen​

Im Zuge des Q-THOR Zertifizierungs­prozesses wurden von der SAP u.a. die nach­folgenden Prozess­schritte an­gefordert und über­prüft:

Vorteile der Zertifizierung für (künftige) Anwender

All diese Schritte wurden erfolg­reich durch­laufen, so dass am Ende des Pro­zesses Q-THOR von der SAP zerti­fiziert wurde. Somit ist sicher­ge­stellt und von der SAP attes­tiert, dass sich Q-THOR problem­los in­stallieren lässt. Zudem stellt die SAP sicher, dass sich die Software reibungs­los in die System­landschaft inte­grieren lässt und Q-THOR ver­lässlich auf der HANA läuft.

Dieser Qualitäts­stempel macht uns stolz und ist neben der Auf­nahme des Pro­duktes in den SAP Store und der Förder­ung vom Bundes­ministerium für Bil­dung und For­schung eine weitere Aus­zeich­nung für die Quali­tät unseres Pro­duktes. So erzeugen wir für unsere Kun­den einen echten Mehr­­wert. Denn durch den Ein­satz von Q-THOR er­möglichen wir den Kunden das Thema Daten­­qua­lität, wel­ches Unter­­nehmen in den kommenden Jahr­­zehn­ten heraus­fordern wird, er­folgreich mana­gen zu können.

Die ge­nerische Archi­tektur von Q-THOR unter­stützt Sie auch auf Non-SAP Land­schaften

Q-THOR überzeugt durch eine voll­ständig gene­­rische Archi­tektur und inte­griert sich einfach in die System- und Daten­land­schaft, ohne diese zu verändern.

Die Land­­schaft kann sowohl SAP-basiert als auch Non-SAP-basiert sein. Dabei kann die Datenbeladung und -integration für Q-THOR auf verschiedene Arten erfolgen, abhängig beispielsweise von Ihrer Systemlandschaft und Ihren Anforderungen an die Verfügbarkeit. 

Sie möchten mehr über Q-THOR erfahren?

Beitrag teilen

Weitere spannende Themen aus unserem Newsroom

Shortcuts für SAP BW in Eclipse

In diesem Blogbeitrag werden fünf einfache Shortcuts erläutert, mit denen...

Mehr lesen
Datenqualität SAP Q-THOR

Datenqualität in SAP BW: Daten ohne Programmierung plausibilisieren

Unsere Standard-Software Q-THOR kann die Datenqualität in SAP BW Systemen...

Mehr lesen

Success-Story: Datenqualitätsmanagement in der MEAG mit Q-THOR

So stellt die MEAG seit 2016 ein erfolgreiches Datenqualitätsmanagement mit...

Mehr lesen

Qualität der Daten verbessern und Fehler schnellst­möglich korrigieren

Das syste­matische Daten­quali­täts­­manage­ment (DQM) erblickte 2016 mit einem Prototypen das Licht der MEAG Welt (Vermö­gens­mana­ger von Munich Re und ERGO). Ziel war ein System zu entwickeln, welches bereits nach der Eingabe von Daten Quali­täts­prüfungen unmittelbar und voll­automa­tisiert durchführt und so die Qualität der Daten merklich ver­bessert. Das Motto lautete also: Fehler schnellst­möglich zu korrigieren.

Über 200 MEAG User in verschie­denen Systemen

Seit 2016 konnten mehrere IT-Systeme, z.B. Teile von operativen Systemen sowie das Risiko­manage­ment­system, angebunden werden. 2020 konnte das System DQM bereits von über 100 MEAG Usern aktiv genutzt werden. Im Rahmen weiterer Projekte wurden weitere operative Systeme angebunden.

Dadurch werden in diesem Use-Case nun etwa 750 tägliche auto­mati­sierte Plausi­bili­sierungs­trigger, auf bis zu zehn GB Daten pro Tag für weitere knapp 100 User an mehreren Standorten und mehreren Teams durch­geführt.

Screenshots Success-Story Datenqualitätsmanagement MEAG Q-THOR. © 2021. BIG.Cube GmbH. Alle Rechte vorbehalten
Screenshots Success-Story Datenqualitätsmanagement MEAG Q-THOR. © 2021. BIG.Cube GmbH. Alle Rechte vorbehalten

DQM als wichtiger Baustein der Digitalisierung

Mit dem DQM werden zusätz­liche Schaden­srisiken aufgedeckt und Schäden vermieden. Darüber hinaus wird die Identi­fizierung und Bear­beitung von fehler­haften Daten deutlich effizienter. „DQM ist ein wichtiger Baustein der Digi­tali­sierung im Immo­bilien­bereich und verbessert die Datenqualität nachhaltig“, so Siegfried Korb, Head of Property Manage­ment Germany bei MEAG MUNICH ERGO Asset­management GmbH.

Neben den Plausi­bili­sierungen wurde auch ein bestehendes Freigabe­tool durch eine voll­integrierte automati­sierte Plausi­bili­sierung in DQM abgelöst.

Die Erfolgsbilanz mit Q-THOR

Im Ergebnis kann das System DQM auf eine großartige Erfolgs­bilanz blicken: Mehrere hundert aktive Nutzer in einer zwei­stelligen Anzahl von Teams und knapp 2.000 durchgeführte trans­aktionale Plausi­bili­sierungen pro Tag. Nächster Meilenstein wird die Erweiterung für das Thema IFRS9 sein. Dadurch wird das System DQM durch den Konzern zur Daten­zulieferung und Plausi­bili­sierung genutzt und der Userkreis mehr als verdoppelt.

Durch die externe Standard-Software Q-THOR von der BIG.Cube GmbH stellt die MEAG somit ihre Daten­qualität unter anderem im DQM sicher.

Beitrag teilen

Weitere spannende Themen aus unserem Newsroom

Wir gehören zu „Deutschlands besten Arbeitgebern“

Als einer der Top-100-Arbeitgeber Deutschlands mit erneuter „Great Place to...

Mehr lesen

Unser Herzensprojekt: Die Stiftung AKM in München

Schon seit einiger Zeit unterstützten wir als BIG.Cube GmbH die...

Mehr lesen

BIG.Cube ist ein Great Place to Work – Bayern und ITK

Die BIG.Cube wurde dieses Jahr von Great Place to Work...

Mehr lesen

Rückblick zum Stammdaten­ Forum von Deutsche Kongress 2021

Auf dem Stammdaten Forum der deutschen Kongress in Düsseldorf standen vor allem die Themen Digitale Transformation, Stamm­daten und Data Governance im Mittelpunkt. So lieferte der Austausch beispielsweise intere­ssante Ein­blicke in den aktuellen Stand der Data Governance bei den teilnehmenden Unter­­nehmen aus unter­schiedlichen Branchen. Von Trends im Stamm­daten­management über die Daten­qualität als Erfolgs­faktor bis hin zur erfolg­reichen Imple­men­tierung einer Data-Governance-Struktur wurde in zahl­reichen spannenden Workshops und Round Tables referiert und diskutiert.

Diese Trends wurden auf dem Stammdaten Forum deutlich:

  • Data-driven ist das Ziel: Unter­nehmen sammeln immer mehr Daten. Dazu verä­ndern sich die Techno­logien fort­laufend und der Bedarf an Infor­ma­tionen steigt. Damit aus Daten auch verwert­bare Infor­ma­tionen werden, muss allerdings die Daten­qualität einem gewissen Standard entsprechen
  • Der Impuls für die Daten­quali­täts­strate­gie kommt oft aus den Fach­be­reichen: Die Frage ist nicht ob das Thema Daten­qualität in den Unter­nehmen ange­gangen wird, sondern wie es angegangen wird
  • Ausbleibende Einnahmen als Folge von falschen Daten, Image­schäden und zu ver­bessernde Prozesse in Unter­nehmen sind Treiber der Datenstrategie
  • Das Change-Management gewinnt bei großen Projekten immer mehr an Be­deutung
  • Unter­­nehmen wollen vermehrt die ihnen zur Ver­fügung stehenden Daten nutzen und von den Daten gesteuert werden. Darauf müssen aber die not­wendigen Infra­struk­turen, Prozesse sowie Arbeits­methoden ausgerichtet werden
  • Datenmanagement und Daten­qualität sind also unmittelbar mit dem Unter­nehmens­­erfolg verbunden

Wir freuen uns bereits auf das StammdatenForum 2022!

Eindrücke aus Düsseldorf

Fotocredit: © BIG.Cube

Jetzt Kontakt aufnehmen

Beitrag teilen

Weitere spannende Themen aus unserem Newsroom

Wir gehören zu „Deutschlands besten Arbeitgebern“

Als einer der Top-100-Arbeitgeber Deutschlands mit erneuter „Great Place to...

Mehr lesen

Unser Herzensprojekt: Die Stiftung AKM in München

Schon seit einiger Zeit unterstützten wir als BIG.Cube GmbH die...

Mehr lesen

BIG.Cube ist ein Great Place to Work – Bayern und ITK

Die BIG.Cube wurde dieses Jahr von Great Place to Work...

Mehr lesen

Von schmerz­haften Zeit­verzöge­rungen und Budget­über­schreitungen

Im Rahmen einer Datenmigration drückt der Schuh meist an verschiedenen Stellen. Eine der schmerz­haftesten Stellen ist leider oft die Qualität der zu migrie­renden Daten. Dabei ist die Proble­matik im Grunde genommen ganz einfach: die Datenq­ualität der migrierten Daten muss „stimmen“. Denn unzureichende Daten­qualität führt zunächst zur Aufsetzung neuer Plausibi­lisierun­gen und Daten­berei­nigungen. Auf lange Sicht wiede­rum ver­ursacht das schmerz­hafte Zeit­verzögerun­gen und ungeplante Budget­über­schreitungen.

Kern-Heraus­forderungen einer Daten­migration

Der Erfahrung nach zeigen sich in fast allen durch­geführten Datenmigrations-Projekten folgende Kern-Heraus­forde­rungen:

  • Verlässliche Aussagen über die Struktur von Daten und Inhalten ableiten
  • Wachsende Aufwände für IT und Fach­bereiche in der Implemen­tierung von neuen Plausi­bilisie­rungen
  • Effiziente und zeitnahe Durchführung von Daten­bereini­gungen

Eine Daten­migration ist nicht nur zeitauf­wendig sondern auch kosten­intensiv. Daher gilt es die Kern­-Heraus­forderungen gleich zu Beginn in der Projekt- und Budget­planung zu berücksichtigen. Das bedeutet allerdings nicht, dass die Planung von Budget und Zeit in Migrations­vorhaben mit schwindel­erregenden Faktoren erhöht werden müssen.

Datenqualität in Migrationen

Bei der Datenmigration von Alt-Daten in ein neues System wird oft davon ausge­gangen, dass die Daten bereits mit erwartetem Inhalt sowie im richtigen und vom neuen System erwarteten Format zur Verfügung stehen. Doch das ist leider zumeist nicht gegeben, so dass viel manueller Aufwand entsteht. Eine Standard-Software kann hier viel Zeit und Budget einsparen. Denn sie stellt einerseits die Verläss­lichkeit der zu migrierenden Daten sicher­ und automatisiert andererseits auch die Daten­bereini­gung. In der nach­folgenden Abbildung wird ein mögliches Szenario dafür aufgezeigt, hier am Beispiel der Standard-Software Q-THOR:

Datenmigration am Beispiel Q-THOR | © 2021. BIG.Cube GmbH. Alle Rechte vorbehalten.

Ein erster Meilen­stein ist die Durch­führung von Data Profiling Analysen auf den zu migrierenden Daten­bestand. Auf Basis dieser Ergeb­nisse können dann die not­wen­digen Daten­plau­sibili­sierun­gen an­gelegt und aus­geführt werden. Schließlich können die fehler­haften Daten unter­sucht und Be­reinigungs­auf­träge für diese Da­ten gene­riert werden.

Erfolgsfomel für eine Datenmigra­tion: Experten­wissen + Standard-Software

Wer schon in Datenmigrationen gearbeitet hat, wird bestätigen: Experten­wissen in der Daten­analyse ist unerlässlich. Dazu ist ein weiterer Erfolgsfaktor der Einsatz einer Standard-Software. Dieser wird zunehmend von Projektleitern entdeckt. Denn mit einer Kombination aus Expertenwissen und Standard-Software werden Migrationen verlässlicher geplant und erfolgreicher durchgeführt. Zudem lassen sich die für das Migrations­vorhaben definierten Quality Checks der Standard-Software später im produktiven Betrieb des neuen Systems wiederverwenden. Eine Standard-Software, die sich unter anderem schon in Migrations­projekten bewiesen hat und genau diese Vorteile aufweist, ist die Software Q-THOR.

Verfasst von Tom Schütz

Beitrag teilen

Weitere spannende Themen aus unserem Newsroom

Wir gehören zu „Deutschlands besten Arbeitgebern“

Als einer der Top-100-Arbeitgeber Deutschlands mit erneuter „Great Place to...

Mehr lesen

Unser Herzensprojekt: Die Stiftung AKM in München

Schon seit einiger Zeit unterstützten wir als BIG.Cube GmbH die...

Mehr lesen

BIG.Cube ist ein Great Place to Work – Bayern und ITK

Die BIG.Cube wurde dieses Jahr von Great Place to Work...

Mehr lesen

Rückblick 4. Jahres­forum Stamm­daten­manage­ment

Das 4. Jahresforum Stamm­daten­management der imh in Wien bot interessante Einblicke in den aktuellen Stand der Daten­infra­struktur und der Daten-Prozesse von Unter­nehmen aus verschie­denen Branchen. Von Data-Governance über Data Lake und Data Mesh bis hin zum Story­telling in der Daten­analyse wurde in zahlreichen Vorträgen über viele spannende Themen diskutiert.

Daten­qualität als eines der wich­tigen Themen

Die Daten­qualität ist dabei eine der großen und wichtigen Klammern über alle genannten Themen. Das wurde vor allem daran deutlich, dass fast kein Vortrag und keine Diskussion daran vorbei­kamen, die Wichtig­keit der Daten­qualität zu erläutern. Die Meinungen der Vortra­genden und Teilneh­menden gingen lediglich in einem Punkt stark ausei­nander: woher muss der Anstoß für eine Stei­gerung der Daten­qualität kommen? Während die einen zu einem Top-Down-Ansatz rieten, bei dem der Anstoß aus dem Manage­ment kommen müsse, setzten die anderen auf einen Bottom-Up-Ansatz mit dem Anstoß aus dem Fachbe­reich und von den Anwendern. Unser Produkt Q-THOR gliederte sich dabei optimal in den Vortrag “Die Daten­qualität als Erfolgs­faktor in Zeiten explodierender Datenmengen” ein.

Data-Driven als neues Ziel

Die zwei Tage in Wien machten deutlich: Unter­nehmen werden immer von ihren Daten gesteuert und müssen Arbeits­methoden, Prozesse und Infra­struk­turen darauf ausrichten. Dabei prangern Unter­nehmen immer wieder an, dass die Gesetz­gebung in diesem Bereich hinter der schnellen Entwick­lung hinter­herhinke. All das sorgt für große Heraus­forde­rungen – in den IT-Abteilungen und in den daten­verarbei­tenden Fach­bereichen. Eines wurde in Wien aber ebenso klar: ein Unter­nehmen, das von seinen Daten gesteuert wird, kann nur erfolgreich kann nur dann erfolgreich sein, wenn seine Daten korrekt sind. Die Daten­qualität lässt sich also sehr direkt mit dem Unter­nehmens­erfolg verbinden.

Eindrücke aus Wien

Fotocredit: © imh

Jetzt Kontakt aufnehmen

Beitrag teilen

Weitere spannende Themen aus unserem Newsroom

Wir gehören zu „Deutschlands besten Arbeitgebern“

Als einer der Top-100-Arbeitgeber Deutschlands mit erneuter „Great Place to...

Mehr lesen

Unser Herzensprojekt: Die Stiftung AKM in München

Schon seit einiger Zeit unterstützten wir als BIG.Cube GmbH die...

Mehr lesen

BIG.Cube ist ein Great Place to Work – Bayern und ITK

Die BIG.Cube wurde dieses Jahr von Great Place to Work...

Mehr lesen

Q-THOR am 23. & 24.11. auf dem Stamm­daten Forum in Düsseldorf

Q-THOR ist als Standard-Software für Datenqualitätssicherung Sponsor des Stammdaten Forums von Deutsche Kongress, das am 23. und 24. November 2021 in Düsseldorf stattfinden wird. Im Rahmen des Workshops „Die Daten­qualität als Erfolgs­faktor im Data-Driven Management“ wird Q-THOR dort am 23. November um 15:00 Uhr vorgestellt. Dabei wird es vor allem um folgende 3 Themen gehen:

Sie möchten ein persönliches Gespräch vor Ort vereinbaren?

Jetzt Termin am Messestand vereinbaren