thumb

Das weltweite Datenvolumen beträgt mittlerweile an die 2 Millionen Zetabyte. Den Analysten von IDC zufolge wird sich diese Menge künftig alle zwei Jahre verdoppeln. IT-Entwickler feilen unentwegt an Data Warehouses, die nicht nur in der Lage sind, die immensen Datenmengen abzubilden, sondern auch in Echtzeit zu analysieren.

Unternehmen stehen vor der Herausforderung, grosse Volumen an unstrukturierten Daten aus geschäftlichen und privaten Kanälen innerhalb eines Systems zu filtern, zu beurteilen und mit bereits bestehenden Geschäftslösungen zu verbinden. Dank der weitaus höheren Zugriffsgeschwindigkeiten eignet sich die In-Memory-Technologie besser als andere, um die Datenanalyse in Echtzeit durchführen zu können – dies birgt allerdings kostenintensive Investitionen. Der Business Intelligence (BI)-Experte Arcplan empfiehlt daher, bei der Auswahl einer In-Memory-Datenbank Aspekte wie Investitionssicherheit, Schnittstellenmanagement und Flexibilität zu berücksichtigen.

Schneller ans Ziel

Timesten von Oracle oder SolidDB von IBM sind beispielweise zwei am Markt verfügbare In-Memory-Datenbanksysteme. Dabei werden die Daten im Arbeitsspeicher und nicht wie bei klassischen Datenbankmanagementsystemen auf der Festplatte gespeichert. SAP geht mit SAP Hana noch einen Schritt weiter. Die Big Data-Datenbanklösung ist mit der High Performance Analytic Appliance (Hana)-Technologie ausgestattet, die eine Datenanalyse innerhalb weniger Minuten verspricht. Testläufe haben ergeben, dass sich Abfragen mit einer Grösse von 500 Milliarden Datensätzen in weniger als einer Minute durchführen lassen. Real-Time-Technologie erfährt hier eine ganz neue Dimension. Die Datenbanklösung – eine Kombination aus Soft- und Hardwarekomponenten – ist mit speziellen Technologien wie dem spaltenweisen Aufbau und besondere Komprimierung ausgestattet, die eine deutlich schnellere Datenverfügbarkeit und -auswertung erlaubt. Kurz: Mit SAP Hana befindet sich ein komplettes Data Warehouse im Arbeitsspeicher. Damit steht die Beschleunigung der Analyse klar im Zentrum.

Ob sich die Geschäftsprozesse, die sich dieser Daten bedienen, in der Folge allerdings konsequent beschleunigen lassen, sollte vor einer signifikanten Investition in Hard- und Software abgewogen werden. „Die schnellere Verfügbarkeit steuerungsrelevanter Daten steht heute ganz klar im Mittelpunkt der Unternehmen. Es gilt, Real-Time wortwörtlich umzusetzen“, sagt etwa Roland Hölscher, CEO bei Arcplan. „Es gibt allerdings Geschäftsprozesse- oder -Modelle, bei denen Schnelligkeit nicht das erfolgsentscheidende Kriterium ist. Unternehmen sollten daher beim Thema In-Memory nicht allein auf Geschwindigkeit setzen.“

Auf der Daten-Zielgeraden

Das stetig wachsende Datenvolumen stellt die IT-Branche gleichermassen wie Unternehmen vor eine Herausforderung. Neue Systeme drängen auf den Markt, die den Anspruch haben, Datenmengen noch schneller zu erfassen und weitaus besser zu strukturieren. Unternehmen stellen sich ergo die Frage, ob sie ihre IT-Landschaft zukünftig komplett neu ausrichten müssen, um wettbewerbsfähig zu bleiben. Hier gilt: Unabhängig davon, für welche Datenbank-Technologie sich Unternehmen entscheiden und in welcher Weise sie die Herausforderung annehmen, können BI-Anbieter bereits heute Hürden in puncto Prozessoptimierung und Datenverfügbarkeit beseitigen. Mit Arcplan Enterprise zum Beispiel gibt es eine analytische Software, die über eine Vielzahl von Schnittstellen zu diversen Datenbanken verfügt. So können schon heute SAP Hana, Sybase IQ, Oracle Exalytics und Timesten mit der BI-Plattform von Arcplan verknüpft werden.

Dass Unternehmen früher oder später in neue Technologien investieren müssen, bleibt wohl kaum zu umgehen, wenn sie grosse Datenmengen in kürzester Zeit zur Analyse des Geschäftsbetriebs heranziehen möchten. Allerdings können BI-Lösungen, die direkt auf mehrere Datenbanken - unabhängig ob relational oder multidimensional - zugreifen und immer wieder an neue Anforderungen angepasst und erweitert werden können, einen entscheidenden Beitrag in Bezug auf Kostenkontrolle und Investitionssicherheit leisten.

9608-9608datenanalysefotogerdaltmannpixeliolow.de.jpg
Bild: Altmann/Pixelio
9608-9608datenanylyseeffizienteredatenanalysekopie.jpg