Die 5 größten Fallstricke traditioneller Data Warehouses
Actian Germany GmbH
Oktober 11, 2018

In den letzten zwei Jahrzehnten haben sich Data-Warehouse-Lösungen weiterentwickelt und unterscheiden sich, um eine Vielzahl von Anwendungsfällen abzudecken. Gleichzeitig beschleunigt sich das Geschäftstempo weiter, was es schwieriger macht, wettbewerbsfähig zu bleiben. Diese neuen Anforderungen können die Fähigkeiten herkömmlicher Data Warehouses überfordern.
Im Folgenden finden Sie 5 der häufigsten Fallstricke, die traditionelle Data Warehouses zum Scheitern bringen können:
Währung
Da die Anforderungen an Unternehmen, in Echtzeit oder im Moment zu operieren, steigen, müssen Data Warehouses immer mehr aktuelle Daten liefern. SQL-Hadoop-Datenbanken sind in der Regel nicht in der Lage, kontinuierliche Aktualisierungsströme zu verarbeiten, da das Dateisystem für seltene Batch-Updates mit einem beweglichen Fenster historischer Daten optimiert ist. Ein Mangel an aktuellen Daten kann dazu führen, dass Unternehmen nicht schnell genug auf Bedrohungen und Chancen reagieren können, um wettbewerbsfähig zu bleiben.
Sicherheit
Ständig verschärfte Datenschutzbestimmungen wie GDPR und die zunehmende Häufigkeit von Datenschutzverletzungen haben dazu geführt, dass die Sicherheit zu einem wichtigen Thema für den guten Ruf geworden ist. Low-End-Datenbanken fehlt es oft an fortschrittlichen Verschlüsselungsfunktionen für Daten während des Flugs und im Ruhezustand. Datenmaskierung auf Spaltenebene ist eine fortschrittliche Funktion, die vielen Datenbanken fehlt, was ein ernsthafter Fallstrick ist.
Geschwindigkeit
Es gibt viele Gründe, warum eine Anfrage langsam sein kann. Es könnte sein, dass der DBA nicht damit gerechnet hat und keinen spezifischen Index definiert hat, so dass die Datenbank für Ad-hoc-Anfragen ungeeignet ist. Verschärft wird dieses Problem durch den aktuellen Trend zu Bürgerdatenanalysten, bei dem Benutzer mit einem begrenzten Verständnis der zugrunde liegenden Datenstrukturen eine Datenbank in die Knie zwingen können.
Preis
Wenn Datenvolumen und Datentypen wachsen, kann das Hinzufügen von Kapazität teuer werden. Dies gilt insbesondere für Appliance-basierte Lösungen wie IBM Netezza, bei denen die Erweiterung der Kapazität den Kauf einer größeren Appliance bedeuten kann. Offene Hadoop- und Cloud Lösungen, die handelsübliche Server und Betriebssysteme nutzen, sind beliebt geworden, um die Kosten für die Infrastruktur zu senken, haben aber auch andere versteckte Kostenprobleme, wie z. B. den Bedarf an kostspieligen Kenntnissen und die Bindung an das Unternehmen.
Deployment
Für einige Datenbanken sind umfangreiche Kenntnisse in der Datenbankentwicklung und -verwaltung erforderlich. Oracle und Teradata fallen in dieses Lager. Cloud Datenbankdienste gehen diese Komplexität bis zu einem gewissen Grad an, es gibt also Hoffnung.
Jede Organisation hat andere Prioritäten, so dass sie diese fünf Fallstricke anders anordnen kann. Bleiben Sie dran für meinen nächsten Blog in der Reihe "Was ist ein Operational Data Warehouse und warum ist es das nächste große Ding?", in dem ich das nächste große Ding in der Data Analytics, ihre Vorteile und vieles mehr beschreibe.
Abonnieren Sie den Actian Blog
Abonnieren Sie den Blog von Actian, um direkt Dateneinblicke zu erhalten.
- Bleiben Sie auf dem Laufenden - Holen Sie sich die neuesten Informationen zu Data Analytics direkt in Ihren Posteingang.
- Verpassen Sie keinen Beitrag: Sie erhalten automatische E-Mail-Updates, die Sie informieren, wenn neue Beiträge veröffentlicht werden.
- Ganz wie sie wollen: Ändern Sie Ihre Lieferpräferenzen nach Ihren Bedürfnissen.