SAP Enterprise Information Management Infotag

Dieser Informationstag der SAP stand unter dem Stern der Stammdatenverwaltung bzw. Konsolidierung. Auf dem Informationstag wurden zunächst wichtige Eigenheiten und Tools bei der Verwaltung von Stammdaten erwähnt. So wurde beispielsweise der zukünftige Technologische Aspekt von HANA miteingebracht in welcher schon die bekannten Features wie das nutzen von Mobile Devices, On-Demand-Services und On-Premise Services. Das alles natürlich basierend auf dem Business Warehouse (also den On-Premise Services). Die Problemstellung des Tages war somit auch angekündigt: Wie erzeuge ich immer konsistente Stammdaten, welche in meinen kompletten Supply Chains immer nachvollziehbar und vor allen Dingen validiert sind? Invalide Daten kosten letztlich rund 30 Milliarden im schlimmsten Falle, durch all die Kollateralschäden welche diese Verursachen (angefangen von der falschen Adresse des Kunden, bis hin zu invaliden Kennzahlen welche Geschäftsberichte verfälschen). Eine weitere Schwierigkeit stellen vor allen Dingen bei international agierenden Kunden, verschiedene ERP-Systeme, SAP- und Non-SAP-Systeme. Eine Konsolidierung der Stammdaten wird dadurch zwar nicht unbedingt unmöglich aber auf jeden Fall immens erschwert.


Die SAP hat zur Lösung dieser Probleme folgende Tools vorgestellt: Master Data Management, Master Data Governance und die Business Objects Data Services 4.0 mit dem integrierten Information Steward.


SAP NetWeaver Master Data Management (MDM) und SAP Master Data Governance (MDG)


Wozu braucht man MDM oder MDG?


Oft kommt es in Unternehmen vor, dass die einzelnen Geschäftsstellen unterschiedliche Systeme für ihre Stammdatenverwaltung nutzen, anstatt ein System auf das alle zugreifen. Zusätzlich dazu kommen oft neue hinzu oder werden verkauft/geschlossen. Dies macht es schwierig alle Systeme abzugleichen und von Dubletten frei zu halten. Hier kommen das MDM(Master Data Management) und MDG(Master Data Governance) ins Spiel.


Die Vorgehensweise ist hier Anfangs bei beiden Methoden gleich. Die Stammdaten der einzelnen Systeme werden mithilfe der SAP Business Objects Data Services von einem oder mehreren Personen Konsolidiert und ein Keymapping im MDM wird aufgebaut. Das Keymapping geschieht in einer Tabelle in denen die Stammdaten und das jeweilige System von denen sie kommen aufgelistet sind. Gleiche Stammdaten von verschiedenen Systemen werden mit einer Globalen ID versehen um sie miteinander in Verbindung zu bringen.


Auf diese Weise können später bei der Änderung eines Datensatzes alle entsprechenden Datensätze auf den verschiedenen ERP Systemen nach gebessert werden. Ändert sich zum Beispiel auf dem System 002 der Datensatz mit der ID A178 so sieht man direkt auf welchen anderen Systemen in welchem Datensatz die Änderung übertragen werden muss.

Master Data Management: Bei einer reinen MDM Lösung werden die Stammdaten dann direkt über die Process Integration (PI) an die ERP Systeme verteilt. Hierbei ist zu Bemerken, dass Stammdaten Änderungen nur noch über das MDM vorgenommen werden und von dort aus die ERP Systeme aktualisiert werden.





Master Data Governance: Beim MDG zirkulieren die Daten in einem Kreislauf: Die Daten kommen wieder aus den ERP Systemen und laufen ins MDM zur Bereinigung und Konsolidierung. Anschließend wird ein Keymapping erstellt und in das MDG geschrieben. Fortan findet das Hinzufügen und Ändern der Daten wieder nur hier statt. Verteilt werden die Daten wieder über die PI. Kommt nun neues System hinzu, so geht das gleiche nur mit dem neuen System und dem Keymapping von vorne los.





SAP Business Objects Data Services 4.0


Die BO Data Services 4.0 sind ein sehr interessantes Tool zur Validierung von Daten und der Anpassung eigener Metriken um die Korrektheit der eigenen Daten zu prüfen. So unterstützen die Data Services auch eine Vielzahl von Quellen: wie Datenbanken, Anwendungen, Dateien und Transportstreams, Mainframes und jegliche Form von Textdatei. Wobei dies unter anderem einer der herausragendsten Aspekte zu sein scheint. Das integrieren unstrukturierter Daten in Form eines Fließtextes soll mit dem Angeben diverser Keywords möglich sein. Dadurch dass überdies nur Keywords verwendet werden ist es natürlich eine andere Frage ob tatsächlich nur auf Keywords geachtet wird, oder ob eine weitaus komplexere linguistische Methode verwendet wurde um entsprechende Daten aus dem Text herauszuziehen, was die erhaltenen Daten natürlich korrekter erfassen würde. Leider konnte man in diesem Aspekt keine Live-Demo oder ähnliches zu Gesicht bekommen. Das Hinzufügen von Metadaten zum leichteren identifizieren von Sinn und Zweck dieser Stammdaten ist ebenfalls möglich. Ein in den Data Services integriertes Tool ist der Information Steward:


Abgesehen vom Basic Data Profiling unterstützt der Information Steward auch das Advanced Data Profiling welches einem auf einem Blick ermöglicht die Abhängigkeit, Redundanz, Datenvalidierung und Einzigartigkeit seiner Daten zu prüfen. Auch wird das setzen eigener Definitionen für Daten unterstützt: Der Information Steward stellt dazu einen Basic Rule Editor und einen Advanced Rule Editor zur Verfügung. Durch Scores und Charts ist es möglich auf einen Blick zu sehen ob die eingesetzten Regeln auch fortwährend stimmen und wie viele der Daten tatsächlich den gesetzten Regeln entsprechen. Bemerkenswert ist insgesamt die Eigenheit des Information Stewards Datenvalidation zu visualisieren und einfach verständlich zu halten. Auf den von uns eingesehen Folien war eine Klärung nicht valider Datensätze leicht zu ermitteln.


Abschließend führten ZF, Merck und ein SAP-Kunde aus dem Groß- und Einzelhandel Ihre bisherigen Lösungen in Verwendung mit den Data Services 4.0, dem Information Steward und selbstverständlich den Master Data Management und Master Data Governances in einer jeweils eigenen Präsentation vor. Diese Vorträge waren im Hinblick auf die Anwendungsmöglichkeiten der genannten Tools recht informativ und ließen natürlich auch eine Sicht auf Problematiken resultierend aus einer Konsolidierung von verschiedensten Systemen zu, welche allerdings in den meisten Fällen  recht elegant gelöst wurden.


Fazit des Informationstages: Die Problematik des Umgangs mit Stammdaten ist nach wie vor da, wird aber von den neuen Data Services und dem Master Data Management jedoch unterstützt. Also heißt es auch in Hinblick auf die Zukunft: Stammdaten sollten von vorne herein immer standardisiert werden um im weiteren Konsolidierungsprozess nicht bzw. weniger im Wege zu stehen. Die genannten Tools sind für das Monitoring und erkennen nicht valider Stammdaten jedoch sehr nützliche Werkzeuge.

Getagged mit: , , , , , ,

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

*