Big Data und In-Memory

Große Datenmengen und Antworten auf Fragen im sekundentakt – Big Data braucht neue Wege.

Um den Informationsbedarf erfolgreicher Unternehmen gerecht zu werden, müssen große, oftmals unstrukturierte Datenmengen (Big Data) extrem schnell verarbeitet und zur Verfügung gestellt werden – Grundlagen, um auf viele gleichzeitige, oftmals komplexe Auswertungen schnelle Antworten liefern zu können. Eine mögliche Variante ist die Kombination der Business Analytics-Lösung IBM Cognos BI und Hadoop.

In-Memory – Der Arbeitsspeicher als Turbo

Die In-Memory-Technologien DQM (Dynamic Query Mode) und Dynamic Cubes der IBM zeichnen sich durch hohe Geschwindigkeit aus. Ähnliche Konstrukte existieren ebenfalls für die verschiedenen Hadoop-Distributionen. Beispielhaft seien hier Impala erwähnt, die In-Memory-Technologie von Cloudera oder Apache Spark. Aber auch die neueren Versionen der verschiedenen relationalen Datenbanken, wie z.B. Oracle, implementieren diese Technologien. der Das Funktionsprinzip: Die Daten werden nicht mehr in den Festplattensystemen, sondern komprimiert im Arbeitsspeicher vorgehalten. Im Alltag ließen sich Auswertungen auf diese Weise um den Faktor 100 bis 750 beschleunigen. Abfragen mit vielen Milliarden Datensätzen und Antwortzeiten im Sekundenbereich werden so problemlos möglich. Die In-Memory-Technologie ermöglicht damit den Aufbruch in völlig neue Geschäftsmodelle. Neue Zusammenhänge lassen sich ad hoc spielerisch entdecken und nutzbringend einsetzen. Beispiele sind Echtzeitberechnungen für Preismodelle, Optimierungen des weltweiten Einkaufs und Empfehlungen für den Service und Vertrieb während eines Kundengesprächs.

Hadoop – Geballte Kraft

Ein grundlegender Ansatz zur Verarbeitung riesiger Datenmengen besteht darin, die Daten parallel auf vielen Prozessoren und Systemen zu verarbeiten. Ausgezeichnet als schweizer Taschenmesser des 21. Jahrhundert, erweist sich die OpenSource-Lösung Apache Hadoop als Spezialist in diesem Bereich. Grosse, unstrukturierte Datenmengen mit vielfältigen Datenquellen analysiert Hadoop spielend.

In der Kombination mit In-Memory-Technologien verschwinden die bekannten Grenzen im Bereich der Analysen und Auswertungen.

Lösungen und Consulting

Open Logic Systems ist Ihr Dienstleister für Big Data-Lösungen. Wir bieten Ihnen als einer der wenigen Anbieter ein rundum-sorglos Paket für Big Data auf der Basis der Hadoop- und IBM-Technologie an. Gerne möchten wir Sie persönlich von unseren Leistungen und Fähigkeiten als Navigator für Ihre Datengalaxis überzeugen. Unser Spezialisten-Team steht Ihnen bei der Umsetzung Ihrer Big Data-Strategie mit Rat und Tat zur Seite.

Rufen Sie am besten gleich an unter (+49) 2547 93998 – 0 oder schicken Sie eine E-Mail an info@open-ls.de.