In-Memory Computing Conference in Düsseldorf

Vom 4. bis 5. Juni 2012 fand die erste In-Memory Konferenz zum Wissensaustausch über HANA in Düsseldorf statt. Wir waren als Sponsoren vorne mit dabei! Herr Marcel Salein und Herr Sven Zech, beide Solution Architect und Geschäftsführer der FIVE1 hielten einen Vortrag über die ersten praktischen Erfahrungen in Sachen BW auf HANA und die mögliche Integration von R. R ist eine statistische Programmiersprache mit welcher man auf ein Repository von zahlreichen Algorithmen zur Datenanalyse zugreifen kann. Artikel in unserem Blog finden Sie zu den Themen BW auf HANA hier, oder R hier. Den Vortrag der beiden Kollegen können Sie sich hier im PDF -Format herunterladen. Neben dem Vortrag der FIVE1 fanden natürlich noch weitere spannende Vorträge sowie Podiumsdiskussionen statt. Einen guten Überblick über den Stand neuer Anwendungen auf Basis von SAP HANA gab der Vortrag von Frau Xiaoqun CleverExtreme Applications – neuartige Lösungen mit der SAP In-memory Technologie“ in welchem Sie und Matthias Aurin erste Anwendungen vorstellten, welche auf HANA optimiert wurden. Ein weiteres Highlight war der Vortrag „Predictive Analytics mit der SAP HANA Plattform. So entdecken Sie den tatsächlichen Wert Ihrer Daten“ von Herrn Benjamin Graf. Hier wurden Anwendungen vorgestellt die mit der Calculation Engine von HANA und der Erweiterung durch R als analytische Applikationen gebaut wurden. Besonders erwähnt sei an dieser Stelle der Predictive Analysis Designer mit dessen Hilfe sich die HANA Bibliothek für Data Mining und Prognosen über eine grafische Benutzeroberfläche einsetzen lassen. 20120614-113313.jpg
Lesenswert hierzu auch unser Beitrag zum Thema im FIVE1 Blog!

Was klar in dieser Konferenz in Summe zur Sprache gekommen ist, war die langfristige Platzierung von HANA und die damit verbundenen Herausforderungen. Die HANA Datenbank soll eine Konsolidierung der heterogenen Systemlandschaft und dadurch eine schnellere Analyse der Daten erleichtern. Durch den geplanten Einsatz von HANA für das ERP wird nicht nur die transaktionale Welt beschleunigt, es offenbart ebenfalls die visionäre Möglichkeit direkt auf die ERP-Datenbank zu reporten und die Analysestraßen zu verkürzen.

Durch den Multicore-Prozessoren-Trend ist HANA in der Lage, parallel und nicht nur sequenziell, Daten zu verarbeiten. HANA ermöglicht es, nicht zuletzt bedingt auf die spalten basierte Verarbeitung, das Potenzial der parallelen Datenverarbeitung durch die Multicores auszureizen, was über kurz oder lang auch zu einer Minimierung der erforderlichen physischen Hardware führt. Die Vision ist es, möglichst nur noch eine Datenbank für alle Anwendungen zu besitzen und auf dieser Datenbank direkt die Analysen und Berechnungen durchzuführen. Hierzu bietet die HANA-Datenbank unteranderem auch die Möglichkeit, die Daten zu partitionieren und somit auch den optimierten parallelen Zugriff. Da die Skalierbarkeit der Datenbank, sprich die Speicherkapazität schätzungsweise nicht ohne Performanceverlust erweitert werden kann, wird ein Informationsmanagement bzw. Data-Life-Cycle-Management bezüglich der Datenhaltung wiedermal an Bedeutung gewinnen.
In der Datenbackup bzw. Archivierungsfrage gibt es verschiedene Lösungsansätze die alle ein Data-Life-Cycle-Management der Daten in der HANA-Datenbank erfordern, mit welchem man den Lebenszyklus eines Datensatzes bestimmen kann und diesen bei nicht allzu häufigem Zugriff auf einen persistenten Datenspeicher auslagern kann.

Um das volle Potenzial von Hana nutzen zu können müssen die bestehenden und vor allem neuen Programme auf Hana optimiert werden um dem Paradigmenwechsel zu folgen und das Potenzial des Hauptspeichers auszunutzen, hierbei spielen die Spaltenablage sowie die Parallelisierungsmöglichkeiten, welche durch die Multicore-Prozessoren ermöglicht werden eine große Rolle.
Zusammengefasst wird die Revolution HANA eine Besinnung auf alte Tugenden, man denke hierbei an Mainframe-Architekturen, herbeiführen. Die Client Server Architektur wie man Sie heute kennt, wird sich ändern. Die Applikationsserverlast wird sich in die Datenbankserver verlagern hierbei aber auch zu einer gleichzeitigen Minimierung der Hardware führen.
Damit nicht genug, es wird in der Praxis nun endlich möglich sein, der viel gewünschten Real-Time-Analyse einen bedeutenden Schritt näher zu kommen, was dem Strategischen Wertbeitrag der IT einen lang vermissten Hebel zu kommen lässt.

Durch HANA werden die Analysestraßen kürzer und mehrspuriger,

Die Entscheidungen können zukünftig Ereignis näher getroffen werden!

Der Wettbewerbsvorsprung somit entscheidend um die oft gewunschene Nasenlänge erweitert werden.

Getagged mit: , , , , ,

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

*