Analysieren und Handeln auf Transaktionsdaten mit einem Operational Data Warehouse
Zusammenfassung
- Operative Data Warehouses ermöglichen in Echtzeit umsetzbare Erkenntnisse aus aktuellen Daten.
- Überwinden Sie die Grenzen von EDWs, Data Lakes und Cloud Analyselösungen.
- Hauptmerkmale: schnell, skalierbar, flexibel, sicher und nahezu in Echtzeit.
- Die Actian Analytics Engine bietet hohe Leistung durch vektorisierte Verarbeitung.
- Unterstützt Ad-hoc-Analysen, große Datenmengen und Sicherheit auf Unternehmensniveau.
Wir alle hören immer wieder, dass zukunftsorientierte Unternehmen – ob klein oder groß – kundenorientierter, ja geradezu kundenbesessen sein müssen, um in dieser von extremem Wettbewerb geprägten Welt erfolgreich zu sein. Daten liefern Erkenntnisse über die Bedürfnisse und das Verhalten Ihrer Kunden, sodass Sie Ihre Botschaften und Angebote aktiv darauf abstimmen können, um sich von der Konkurrenz abzuheben und diese Kunden für sich zu gewinnen. Dieses Wissen stammt aus einer immer größeren Vielfalt von Quellen, die rund um die Uhr verfügbar sind – über digitale Systeme und zunehmend auch über eine Vielzahl von Sensoren, Geräten und mobilen Anwendungen, die diese Aktivitäten erfassen. Doch die Datenmenge kann überwältigend sein, und der Wert Ihrer Daten kann mit der Zeit schnell schwinden. Daher ist es unerlässlich, über eine Infrastruktur zu verfügen, mit der Sie diese vergänglichen Informationen rasch nutzen können, um zu beeinflussen, wann und wie Sie mit Ihren Zielkunden in Kontakt treten. Dies erfordert einen neuen Ansatz für das Datenmanagement im Hier und Jetzt, den wir als Operational Data Warehouse (ODW) bezeichnen. Ein ODW kann über die Auswertung historischer, statischer Daten hinausgehen und stattdessen mit aktuellen, aktiven Daten arbeiten, um konkrete geschäftliche Maßnahmen anzustoßen – genau im richtigen Geschäftsmoment.
Unternehmen verfügen bereits über eine Reihe von Lösungen, um analytische Erkenntnisse zu gewinnen, von etablierten relationalen Datenbanksystemen über Enterprise Data Warehouses bis hin zu Data Lakes, in ihren Rechenzentren oder zunehmend in der Cloud. Bestehende Lösungen sind in der Regel mit einigen erheblichen Kompromissen verbunden, die ein operatives Data Warehouse überwinden kann.
Nehmen wir das traditionelle Enterprise Data Warehouse, das es schon seit Jahrzehnten gibt. Es ist eine bewährte Methode zur Verwaltung historischer Daten, zur Bereitstellung von Batch-Aktualisierungen, zur Unterstützung regelmäßiger Berichtszyklen und dient als zentrale Datenquelle das Unternehmen. Allerdings handelt es sich in der Regel um eine kostspielige Lösung, insbesondere wenn Hardware-Upgrades, Kapazitätserweiterungen, die Einbindung neuer Datentypen und die Modernisierung des Zugriffs erforderlich sind. Ein EDW, das von der IT im Hinblick auf Governance und Kostenkontrolle sorgfältig verwaltet wird, erfordert, dass neue Berichte einen formellen Änderungsprozess durchlaufen, was die Entwicklung verlangsamen kann. Während ein EDW geplante Workloads gut bewältigt, ist es bei Ad-hoc-Abfragen schwach, was es schwierig macht, Daten-Discovery zu Daten-Discovery verwertbare Analysen zu generieren, ohne bestehende Berichts-Workloads zu beeinträchtigen.
Eine weitere Option ist ein operativer Datenspeicher, der mehr Datenflexibilität und eine separate Umgebung für Ad-hoc-Analysen bietet, sich aber in der Regel starr auf einen Bereich oder Datentyp konzentriert und nicht umfassend ist. Wie ein EDW ist er möglicherweise nicht für die interaktive analytische abfragen optimiert, die für die Erkennung erforderlich ist.
Data Lakes werden von vielen als eine wirtschaftlichere und skalierbar Lösung angesehen, die Speicherplatz für viele Datenquellen und Datentypen bietet. Allerdings können sie zu einer Müllhalde für Daten mit schlechter Governance und Validierung werden. Ihr architektonisches Erbe, das auf einen einfachen, flexiblen Dateneingang ausgelegt ist, führt wiederum zu langsamer abfragen , unterdurchschnittlicherZustimmung und unvorhersehbaren Resultaten.
Das letzte glänzende Objekt, das auftaucht, ist die Cloud, die wirtschaftliche Speicherung und Leistung sowie unbegrenzte elastische Deployment verspricht. In der Realität können diese Cloud zu teuren oder unvorhersehbaren Rechenkosten, begrenzten Deployment mit einem hohen Potenzial für Anbieter-/Architektur-/Datenbindung und relativ neuen und unausgereiften Management- und Tools führen. Gibt es einen besseren Weg?
Die ideale Lösung für die Betriebsanalytik würde die besten Eigenschaften der oben genannten Alternativen aufweisen, ohne deren Nachteile zu haben. Dieser neue Ansatz müsste sein:
- Schnell - Die zugrundeliegende Architektur ist für die Leistung von analytischen abfragen optimiert und erfordert nur wenig oder gar kein Tuning im Hinblick auf bestimmte Arbeitslasten (wie Indizierung oder Aggregationen), wodurch die Vielfalt der unterstützten Arbeitslasten maximiert wird.
- skalierbar - Sie würde auf große Datenkapazitäten mit wirtschaftlicher und flexibler Speicherebene skalieren und sich mit einer Vielzahl von bestehenden und neuen Datenquellen verbinden.
- Flexibel - Es würde flexible Deployment bieten, On-Premises oder auf verschiedenen Cloud .
- Aktualität - Es sollte in der Lage sein, Aktualisierungen von operativen Systemen nahezu in Echtzeit vorzunehmen, um mit dem Geschäft Schritt zu halten, ohne die Leistung laufender analytischer Abfragen zu verlangsamen.
- Robust - Es bietet Sicherheit, Zuverlässigkeit und Verwaltbarkeit auf Unternehmensebene.
- Sicher - Es würde eine Reihe von Datenschutzmechanismen bieten, um kennenlernen Sicherheitsanforderungen von Unternehmen kennenlernen und die strengeren gesetzlichen Auflagen zu erfüllen.
Diese Merkmale definieren das, was wir ein operatives Data Warehouse nennen. Mit einer solchen Lösung hätten Sie ein Datenbanksystem, das einer Vielzahl von Benutzern - von Datenwissenschaftlern bis hin zu Unternehmensanalysten - Real-Time-Insights in Echtzeit Einblicke in das Unternehmen gewährt. Es würdeDaten-Discovery und -Analysen unter Verwendung der aktuellsten operativen Daten unterstützen, ohne transaktionale Systeme und Workloads zu belasten.
Die Actian Analytics Engine wurde von Grund auf neu entwickelt, um als operatives Data Warehouse zu fungieren und Daten in Echtzeit nutzbar zu machen. Sie ist nicht nur schnell, skalierbar und flexibel, sondern auch produktionsreif und verfügt über ausgereifte Funktionen für Sicherheit, Verwaltung und Ressourcenmanagement.
Die Engine ist die schnellste Analytics Database, die auf branchenüblichen Servern, On-Premises in der Cloud verfügbar ist. Das ursprüngliche Ziel bestand darin, SQL-Code so schnell auszuführen, als wäre er in optimiertem C-Code geschrieben, indem die vektorisierten Befehle in Standard-CPUs sowie ein spaltenorientiertes Datenformat genutzt wurden, um analytische Abfragen effizienter zu verarbeiten. Dieses Ziel wurde erreicht und sogar übertroffen, was in den letzten sechs Jahren zu einer Reihe beeindruckender, Aufzeichnung Benchmark-Ergebnisse geführt hat. Darüber hinaus benötigt die Actian Analytics Engine keine speziellen Leistungsanpassungen oder Optimierungen wie Indizierung und Tuning und bietet sofort nach der Installation eine hervorragende Leistung. Das macht die Actian Analytics Engine ideal fürDaten-Discovery, mit interaktiver Leistung und verkürzten Zykluszeiten für schnellere Iterationen – und das auf vollständigen Datensätzen, nicht auf Stichproben.
Die Actian Analytics Engine bietet Scalability einem einzelnen Server bis hin zu Clustern mit Hunderten von Knoten. Dabei nutzt sie das verteilte Dateisystem von Hadoop und YARN, um verwalten Ressourcen verwalten und die Workload zu verteilen, wo die Daten gespeichert sind. Die Actian Analytics Engine verarbeitet Datenmengen von GB über TB bis hin zu PB und lässt sich auf eine Anzahl gleichzeitiger Nutzer skalieren, die weit über die Kapazitäten anderer MPP-Lösungen hinausgeht.
Die Actian Analytics Engine baut auf der Verwaltungsinfrastruktur RDBMS etablierteren transaktionalen RDBMS von Actian auf und nutzt deren bewährte Reife in den Bereichen abfragen , abfragen , Dateneingang, Datenqualität, Sicherheit, Zuverlässigkeit und Verwaltbarkeit. Actian DataFlow ergänzt Actian Analytics Engine perfekt, indem es eine schnellere und intuitivere Steuerung der Dateneingang der Analyse-Workflows ermöglicht, einschließlich einer grafischen Nutzer auf Basis von KNIME, die das Erstellen und Optimieren abfragen vereinfacht.
Analysen liefern zwar die besten Erkenntnisse auf der Grundlage aktueller Daten, doch die meisten Analyselösungen basieren auf Batch-Aktualisierungen und Zugriffsmustern vom Typ „einmal schreiben, oft lesen“, die häufige Änderungen nicht unterstützen können. Die Actian Analytics Engine nutzt eine patentierte Technik namens „Positional Delta Trees“, um Aktualisierungen bestehender Daten zu verarbeiten, ohne abfragen zu beeinträchtigen. Dadurch können Analysen regelmäßige und häufige Aktualisierungen einbeziehen und Ihnen die aktuellsten Einblicke in Ihr Unternehmen liefern.
Mit dem Inkrafttreten der DSGVO hat das Thema Datenschutz und Sicherheit zunehmend an Bedeutung gewonnen. Die neuen Versionen der Actian Analytics Engine bieten alle Fähigkeiten für eine DSGVO-konforme Deployment, und die jüngsten Neuerungen vereinfachen die Verwaltung und Entwicklung sicherer Lösungen. So sorgt beispielsweise die Datenmaskierung dafür, dass nur autorisierte Benutzer die zugrunde liegenden Daten einsehen können, während andere lediglich einen maskierten Wert sehen.
Die Actian Analytics Engine bietet eine Vielzahl von Deployment : Sie läuft auf branchenüblichen Servern unter Linux oder Windows und unterstützt zudem verschiedene Hadoop-Distributionen, um eine horizontale Skalierung auf Clustern oder in Cloud zu ermöglichen. Vector unterstützt zudem eine Vielzahl von Speicheroptionen, wodurch eine technologische Bindung für Ihr operatives Data Warehouse vermieden wird.
Schauen Sie sich Actian Analytics Engine noch heute im AWS Marketplace an!