SAP HANA mit SAP BW als Datenquelle über Open Hub

Um die HANA Datenbank mit Daten zu versorgen gibt es mehrere Möglichkeiten. Die vielleicht einfachste Art ist die Replikation über den SAP LT Server. Eine noch wenig beschriebene Variante ist die Möglichkeit mit Hilfe des Business Objects Tools Data Services. Daher werde ich in diesem Blog Beitrag zeigen wie man mit dem Data Services Designer ganz einfach Daten nach SAP HANA aus einem SAP BW System mittels OpenHub transferieren kann.

Voraussetzungen:
– Data Services 4.0 Client
– Data Services 4.0 Server
– HANA System
– ODBC Datenverbindung zu HANA auf dem Server und Client

Optional:
– HANA Client
– HANA Studio

Um Daten ins HANA System transportieren zu können müssen wir erst einmal eine Open Hub Schnittstelle, im BW, bereitstellen. Hierfür legen wir uns diese über die Transaktion RSA1 an. Im Menü auf der linken Seite steht unter Modellierung ein Menüpunkt „Open Hub Destination“ zur Verfügung.

Nun kann man sich die Info Area aussuchen in der die Open Hub Destination angelegt werde soll oder man erstellt eine neue. Um den Open Hub zu erstellen macht man einen Rechtsklick auf die Info Area und wählt „Open Hub Destination anlegen“.

Beim Erstellen der Open Hub Destination müssen folgende Felder angegeben werden:

– Open Hub Destination: Der technische Name der Open Hub Destination (maximal 9 Zeichen)
– Beschreibung: Eine Beschreibung für die Open Hub Destination
– Objekttyp: Die Art des Info Providers, dessen Daten bereitgestellt werden sollen
– Name: Der technische Name des Info Providers

Das Feld „Info Area“ wird automatisch mit dem technischen Namen der ausgewählten Info Area gefüllt.
Nach Bestätigung wird rechts ein Dynpro angezeigt, in dem weitere Einstellungen vorgenommen werden.

Bei „Art der Destination“ wird DB-Tabelle gewählt. In diese wird später der Inhalt des gewählten Info Providers geschrieben. Den technischen Namen der Tabelle werden wir im Verlauf des Transports noch benötigen.
Wichtig an dieser Stelle ist noch die Auswahl des technischen oder semantischen Schlüssels. Dazu ist es Wichtig zu wissen, dass nur bis zu 16 Schlüsselfelder auf einmal unterstützt werden. Hat man weniger in seinem Info Provider so kann der Radio Button für den technischen Schlüssel gewählt werden, hat man mehr so muss man den semantischen Schlüssel wählen. Bei Wahl des semantischen Schlüssels werden alle Schlüsselfelder auf ein Schlüsselfeld reduziert, welches aus den „echten“ Schlüsselfeldern zusammengesetzt wird. Der Tab „Felddefinition“ zeigt eine Übersicht über die Felder des Info Providers. Nun kann die Open Hub Destination gespeichert und Aktiviert werden.

Die Tabelle der Open Hub Destination muss jetzt noch mit den Daten des Info Providers gefüllt werden. Hierzu benötigt man eine Transformation und einen Datentransferprozess (DTP). Als erstes legen wir die Transformation an. Das geschieht per Rechtsklick auf Open Hub und „Transformation anlegen“.Das Ziel der Transformation wird automatisch ausgefüllt. Die Quelle ist der zuvor gewählte Info Provider. Nach dem Bestätigen sieht man eine Übersicht, in der dargestellt wird von welchen Feldern des Info Providers die Daten in welches Feld der Zieltabelle geschrieben werden.

Ist man mit dieser einfachen Zuordnung nicht zufrieden, so kann diese natürlich geändert oder via Expertenroutine geschrieben werden. Die Transformation kann anschließend gespeichert und aktiviert werden. Damit den Transfer vom Info Provider zur Datenbank Tabelle auch gestartet werden kann legen wir jetzt noch einen DTP an. Also wieder ein Rechtsklick auf die Open Hub Destination, diesmal wählen wir allerdings „Datentransferprozess anlegen“.
Die Felder werden in diesem Fall alle automatisch ausgefüllt und können so übernommen werden. Es können wieder weitere Einstellungen vorgenommen werden. Allerdings reichen uns die Standard Einstellungen diesmal aus, also speichern und aktivieren wir den DTP. Um den Datentransferprozess zu starten wählen wir den Reiter „Ausführen“ im DTP und betätigen den gleichnamigen Button.
Um zu testen ob der DTP wirklich erfolgreich ausgeführt wurde kann die Tabelle, der Open Hub Destination, über die Transaktion se16 angezeigt werden. Hierzu verwenden wir den technischen Namen der Datenbank Tabelle der Open Hub Destination. In unserem Fall war dieser /BIC/OHYBWTSOHBS.

Der BW Teil ist hiermit abgeschlossen und wir können uns dem Data Services Designer zuwenden. Nach dem Starten des Designers erwartet uns eine Login-Oberfläche. Hier tragen wir folgendes ein:

– System – host[port]: Der Server auf dem der Central Management Server von HANA installiert wurde. Bsp. hana.domain.de. Sollte die Verbindung nicht gelingen kann auch noch ein Port angegeben werden, standardmäßig ist dieser 6400.
– User name: Der eigene Benutzer auf dem Central Management Server
– Password: Das zum Benutzernamen gehörige Passwort

Wurden die Daten korrekt angegeben so wird nach Betätigung des „Log On“ Buttons eine Liste von Repositories im unteren Bereich der Oberfläche angezeigt.

Nach Auswahl des gewünschten Repositories startet der Data Services Designer. Wir erstellen nun ein neues Projekt und benutzen dafür den „Create Project“ Button.

Nach Angabe eines Projektnamens wird das neue Projekt erstellt und erscheint in der Project Area.

Durch Rechtsklick auf das Projekt und Auswahl von „New Batch Job“ legen wir einen neuen Batch Job an. Der Batch Job muss nun selektiert und ein Work Flow in dem Batch Job angelegt werden. Dieser liegt als Icon in der rechten Menüleiste. In dem Work Flow wird ein Data Flow eingefügt. Um weiter vorgehen zu können müssen wir in der „Local Object Library“ 2 Datastores anlegen. Einen für das Quellsystem und einen für das Zielsystem. Hierzu wechseln wir am unteren linken Rand des Data Services Designer auf den Tab Datastores. Mit Rechtsklick in der Local Object Library wird ein neuer Datastore angelegt.

Unter Advanced >> muss unter Umständen noch die Client Number angepasst werden. Dieser Vorgang wird für das Zielsystem (HANA) wiederholt.
Anschließend kann die Datenbank Tabelle der Open Hub Destination in den Quell Datastore Importiert werden. Dies geschieht über einen Rechtsklick auf das „Tables“ Feld im Datastore und einen Klick auf „Import by Name“.

Die importierte Tabelle kann anschließend, per Drag & Drop, in den Data Flow gezogen werden. Zusätzlich wird noch eine Template Tabelle benötigt, welche wir erneut aus dem rechten Menü in den Data Flow einfügen.

Der Tabellenname ist frei wählbar, als Datastore wird das Zielsystem ausgewählt und als Owner name der Benutzername aus der ODBC Verbindung benutzt. Zuletzt fehlt noch eine Query Transformation.

Die drei Teile werden verbunden und durch einen Doppelklick auf die Query kann man auswählen welche Felder der Quelltabelle man in die Zieltabelle übernehmen will. Dies geschieht wieder per Drag & Drop.

Mit Execute (F8) werden die Daten vom BW ins HANA System geladen.

Um zu testen ob die Daten wirklich im HANA System gelandet sind kann das HANA Studio benutzt werden. Hierfür wird dann bspw. unter Content -> eine Analytic View angelegt. Nach Eingabe eines Namens für die View wählt man im Catalog die im Data Services Designer angelegte Tabelle aus. Diese findet man unter dem Namen des ODBC Verbindungs User. In der Analytic View wird ausgewählt welche Felder der Tabelle Attribute und welche Kennzahlen sind. Dies geschieht per Drag & Drop indem man die Felder in die entsprechenden „Ordner“ im Output Bereich zieht. Hat man die View gespeichert und aktiviert können die Datensätze mit dem Button Data Preview angezeigt werden.

Getagged mit: , , , ,

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

*