Blog | Einblicke | | 2 Min. Lesezeit

Die 5 größten Fallstricke traditioneller Data Warehouses

hybrides Cloud mit Data Warehouses

In den letzten zwei Jahrzehnten haben sich Data-Warehouse-Lösungen weiterentwickelt und diversifiziert, um einer Vielzahl von Anwendungsfällen gerecht zu werden. Gleichzeitig nimmt das Geschäftstempo weiter zu, was es immer schwieriger macht, wettbewerbsfähig zu bleiben. Diese neuen Anforderungen können die Kapazitäten herkömmlicher Data Warehouses an ihre Grenzen bringen.

Im Folgenden sind 5 der häufigsten Fallstricke aufgeführt, die bei herkömmlichen Data Warehouses zu Problemen führen können:

Währung

Da die Anforderungen an Unternehmen, in Echtzeit oder unmittelbar zu agieren, steigen, müssen Data Warehouses immer aktuellere Daten bereitstellen. SQL-Hadoop-Datenbanken sind in der Regel nicht in der Lage, kontinuierliche Aktualisierungsströme zu verarbeiten, da das Dateisystem für seltene Batch-Aktualisierungen optimiert ist und ein gleitendes Zeitfenster für historische Daten verwendet. Ein Mangel an aktuellen Daten kann dazu führen, dass Unternehmen nicht schnell genug auf Bedrohungen und Chancen reagieren können, um wettbewerbsfähig zu bleiben.

Sicherheit

Immer strengere Datenschutzvorschriften wie die DSGVO und die zunehmende Häufigkeit von Datenlecks haben das Thema Sicherheit zu einer Frage von höchster Bedeutung für den Ruf eines Unternehmens gemacht. Bei einfachen Datenbanken fehlen oft fortschrittliche Verschlüsselungsfunktionen für Daten während der Übertragung und im Ruhezustand. Die Datenmaskierung auf Spaltenebene ist eine fortschrittliche Funktion, über die viele Datenbanken nicht verfügen, was dies zu einer ernsthaften Schwachstelle macht.

Geschwindigkeit

Es gibt viele Gründe, warum eine abfragen langsam sein abfragen . Möglicherweise hat der Datenbankadministrator dies nicht vorhergesehen und keinen spezifischen Index definiert, wodurch die Datenbank für Ad-hoc-Anfragen ungeeignet ist. Dieses Problem wird durch den aktuellen Trend zu „Citizen Data Analysts“ noch verschärft, bei dem Nutzer mit begrenzten Kenntnissen der zugrunde liegenden Datenstrukturen eine Datenbank zum Erliegen bringen können.

Preis

Mit zunehmendem Datenvolumen und einer wachsenden Vielfalt an Datentypen kann die Erweiterung der Kapazitäten kostspielig werden. Dies gilt insbesondere für appliancebasierte Lösungen wie IBM Netezza, bei denen eine Kapazitätserweiterung den Kauf einer größeren Appliance erfordern kann. Offenere Hadoop- und Cloud Lösungen, die auf handelsüblichen Servern und Betriebssystemen basieren, haben sich als Antwort auf die Infrastrukturkosten durchgesetzt, bringen jedoch andere versteckte Kostenprobleme mit sich, wie beispielsweise den Bedarf an teurem Fachpersonal und die Gefahr der Anbieterabhängigkeit.

Deployment

Manche Datenbanken erfordern einfach enorme Kenntnisse in der Datenbankentwicklung und -administration. Oracle und Teradata gehören zu dieser Kategorie. Cloud Datenbankdienste tragen dieser Komplexität bis zu einem gewissen Grad entgegen, sodass es Hoffnung gibt.

Jede Organisation hat andere Prioritäten, daher kann die Reihenfolge dieser fünf Fallstricke variieren. Seien Sie gespannt auf meinen nächsten Blogbeitrag in der Reihe „Was ist ein operatives Data Warehouse und warum ist es der nächste große Trend?“, in dem ich den nächsten großen Trend in der Data Analytics, dessen Vorteile und vieles mehr beschreibe.