Über die letzten Jahre hat sich die zu verarbeitende Datenmenge in datengetriebenen Anwendungen vervielfacht. Oftmals werden aber mit Optimierungen keine signifikanten Performanceverbesserungen und Kosteneinsparungen erzielt. Das kann sich mit einer Fokussierung auf die Datenbanktechnologie ändern.
In 2011 hat SAP sein neues Datenbankmanagementsystem SAP HANA eingeführt, das datenbasierte Prozesse beschleunigt - trotzdem ist die neue Technologie bei deutschen Banken kaum im Einsatz. Durch umfangreiche regulatorisch bedingte Umsetzungen und Optimierungs- und Wartungsmaßnahmen bestehender Software rücken diese oftmals in den Hintergrund.
Über die letzten Jahre hat sich die zu verarbeitende Datenmenge in datengetriebenen Anwendungen vervielfacht und Banken ergriffen zahlreiche Maßnahmen zur Sicherstellung des Geschäftsbetriebs. Am Ende konnten allerdings oftmals keine signifikanten Verbesserungen der Performanceprobleme erreicht werden. Um dennoch dringend notwendige Optimierungen insbesondere vor dem Hintergrund der sich stetig erhöhenden Datenmengen und veralteter Datenbanksysteme vorzunehmen, sollten neue(re) Technologien in Betracht gezogen werden.
Eine Möglichkeit, die zu deutlichen Performanceverbesserungen führt, ist die Nutzung einer SAP HANA Datenbank mit ihrer In-Memory Architektur. Durch sie werden Daten vollständig im Arbeitsspeicher gehalten, was zu einer spürbaren Verbesserung der Lese- und Schreibgeschwindigkeit gegenüber herkömmlichen Festplattenspeichern führt. Darüber hinaus ist die SAP HANA Datenbank eine spaltenorientierte Datenbank, die Daten werden also nicht wie bei den meisten Datenbanken üblich zeilenweise gespeichert. Aufgrund dessen kann die Datenmenge in einer Spalte komprimiert werden, weil redundante Werte nicht mehrfach gespeichert werden. Diese spaltenorientierte Speicherung von Daten kann vor allem bei analytischen Prozeduren zu deutlichen Laufzeitverbesserungen führen.
Um die HANA In-Memory Datenbank nicht unnötig aufzublähen und zur Optimierung der Speichernutzung, kann das das sogenannte Multi-Temperature-Data Management genutzt werden: je nach Häufigkeit der Datennutzung und der Performanceanforderungen, erhalten Sie die Klassifizierung „hot“, „warm“ oder „cold“ Data und werden unterschiedlich vorgehalten.
DIESE UNTERSCHIEDLICHEN SPEICHERBEREICHE DER KLASSIFIZIERTEN DATEN REDUZIEREN DIE GESAMTKOSTEN DER LIZENZEN.
Bei einer Datenbankmigration nach SAP HANA lassen sich beim Erstellen mehrerer Umgebungsinstanzen eines Systems mit jeweils einer eigenen HANA-Datenbanken Risiken und Ressourcen entzerren - wenn der Aufbau der neuen Datenbanken sequentiell umgesetzt wird. Zur korrekten und stabilen Umstellung und um die Umsetzung und die Produktivnahme im laufenden Geschäftsbetrieb reibungslos durchzuführen, sind umfangreiche Regressionstests notwendig.
Mithilfe von Abgleichtools werden Unterschiede in den Tabellen auf Feldebene sichtbar und können nach Fehleranalyse einfach behoben werden. Nach einem Parallellauf auf der Test- oder Entwicklungsinstanz können gegebenenfalls vorgenommene Anpassungen am Datenmodell und Rule Engine auf eine neue Integrations- und Produktionsumgebung migriert werden. Durch dieses sequentielle Vorgehen kann die Dauer des Aufbaus der neuen Integrations- und Produktionsumgebung reduziert werden.
Um die dringenden Performanceprobleme kurzfristig zu beheben, stehen weitere Optimierungsmaßnahmen wie das oben beschriebene Data Tiering (Auslagerung von Daten) nach dem GoLive weiterhin zur Verfügung. Kurzfristig kann dies zwar zu höheren Lizenzkosten führen, aber die deutliche Verbesserung der Laufzeiten des Systems und eine pünktliche Lieferung an die nachgelagerten Schnittstellen sollten stets im Vordergrund stehen.
Capco unterstützt bereits diverse Projekte bei denen SAP HANA sowohl für eigenentwickelte Software als auch für Standardsoftware eingeführt wird. Kontaktieren Sie uns, um mehr über die Einsatzmöglichkeiten der neuen Datenbanktechnologie zu erfahren.
Andreas Pfeil, Partner
M +49 17 2165 3932
E Andreas.Pfeil@capco.com