Data Analytics

Actian 2020 Vorhersagen: 4 Datentrends für die Analytik

Actian Germany GmbH

18. Dezember 2019

Prognosen zur Data Analytics 2020

Die transformative Wirkung von Daten im Unternehmen wird jeden Tag stärker, und die Art und Weise, wie Unternehmen ihre Daten verwalten und nutzen, befindet sich daher in einem tiefgreifenden Wandel. Neue Technologien, Strategien und Trends nehmen fast täglich in den Bereichen Analytik, Cloud, UX und IoT Gestalt an.

Im Jahr 2020 werden wir erleben, wie Daten die Customer-Experience, verschiedene Geschäftsfunktionen sowie die Analyseinfrastrukturen, auf denen diese Systeme arbeiten, neu gestalten. Außerdem wird 5G ein goldenes Zeitalter des IoT und der Analytik am Edge einläuten.

Customer-Experience und Marketing treiben die Entwicklung von Analysesystemen voran

Für viele Unternehmen sind die günstigsten Bereiche für neue digitale Transformationsprojekte die Customer-Experience und das Marketing. Denken Sie an Kunden-360, Hyper-Personalisierung und kontextbezogene Kommunikation. Dies sind extrem datenintensive Anwendungsfälle, die auch auf Daten aus neuen Quellen wie SaaS-Apps und über unzählige Integrationen in der Cloud angewiesen sind. Das bedeutet, dass eine wachsende Zahl solcher Projekte die Bereitstellung von Ressourcen wie Cloud vorantreibt und die Auswahl anderer Elemente zur Unterstützung des Analyse-Stacks wie Datenintegration, ETL und mehr beeinflusst.

Aber noch bevor es eine formelle Verpflichtung zu einer "großen Wette" wie z. B. Omni-Channel Contact Center mit Gefühlsanalyse gibt, klopft das Marketing oft (informell) zuerst an die Tür der IT. Das liegt daran, dass das Marketing jetzt viele Daten von der digitalen Seite generiert, die es nutzen möchte. Für viele Unternehmen ist dies möglicherweise das erste Mal seit langem, dass jemand Interesse daran hat, eine neue Datenquelle in ein bestehendes Framework einzubringen. Infolgedessen müssen neue Pipelines erstellt werden, was einen Blick darauf erfordert, wie Daten in Analysedatenbanken fließen und wie diese Analysedatenbanken selbst beschaffen sind.

Immer mehr Unternehmen entscheiden, dass sie nie zu 100 % in der Cloud sein werden - und das ist okay

Die NASA ist wohl kaum das Aushängeschild für den typischen Bedarf an Unternehmensanalysen, aber als ich im August letzten Jahres über den neuen Supercomputer namens Aitken las, den die NASA in Mountain View installiert hat, war ich begeistert, was dies für die Zukunft eines On-Premises bedeutet. Server, die einem gehören und um die sich ein Team kümmert, haben etwas, das einem tief verwurzelten IT-Bedürfnis entspricht: Kontrolle. In den letzten Jahren hatte man das Gefühl, dass die Umstellung auf die Cloud für alle Unternehmen, mit Ausnahme der größten Nachzügler, eine ausgemachte Sache war.

Dabei ist es egal, dass der größte Teil des gesamten Analysevolumens in Unternehmen immer noch auf Geräten wie Netezza und Teradata liegt. Diese Systeme sind immer noch extrem leistungsfähig und unterstützen viele geschäftskritische Analyseanwendungen. Das Beharrungsvermögen, zumindest teilweise On-Premises zu bleiben, gewinnt nun zusätzlich an Gewicht, da eine Reihe neuer Datenschutzvorschriften für Kunden in Kraft treten, wie z. B. GDPR (letztes Jahr) und CCPA (nächstes Jahr). Die Einhaltung dieser Datenschutzbestimmungen ist eine absolute Frage der Kontrolle, und aus diesem Grund wird On-Premises auf absehbare Zeit im Mix bleiben. Hybrid (ein kombinierter Cloud und On-Premises ) wird ein Teil der Analyse-Roadmap für viele Unternehmen im Jahr 2020 und darüber hinaus sein.

UX-Innovation treibt die Transformation von IT- und Datenteams voran

Vor etwa 10 Jahren löste das Erscheinen von Tableau eine Welle der Umwälzung aus, die jedes Data Analytics in Unternehmen betraf. Dies war auf zwei Dinge zurückzuführen - die Möglichkeit, die Abhängigkeit der Datenanalysten und Datenwissenschaftler von der IT zu lösen, um auf nützliche Datensätze zuzugreifen, und die Ermächtigung einer glatten, webbasierten Benutzeroberfläche, die das kennenlernen Daten und die Ableitung von Erkenntnissen einfacher denn je machte. Seitdem hat sich die Demokratisierung des Zugangs zu Erkenntnissen aus Daten beschleunigt, da nachfolgende Innovatoren an der Visualisierungsfront, wie Looker und Qlik, weiterhin Innovationen im Bereich der Benutzeroberfläche und der Cloud Leistung vornehmen.

Im Jahr 2020 und darüber hinaus wird sich diese Demokratisierung des Datenzugriffs und der Datenhoheit auf andere Teile des Analyse-Stacks ausweiten. Die Low-Code/No-Code-Bewegung hat viele Bereiche und Funktionen erfasst, die in der Vergangenheit die Analytik unterstützt haben, wie Datenintegration und ETL. Die Bereitstellung von Analysedatenbanken (Data Warehouses) ist viel einfacher und stellt weitaus geringere Anforderungen an traditionelle technische Fähigkeiten. Die Verbreitung von benutzerfreundlichen Drag-and-Drop-Schnittstellen in Kombination mit der sofortigen Verfügbarkeit von Cloud Diensten führt zu einem Wandel bei den IT-Mitarbeitern. Die alte Garde der DBAs und ihre technisch orientierten Kollegen werden durch eine neue Klasse von Datenexperten ersetzt, deren Kernkompetenz darin besteht, den Datenfluss zu orchestrieren, um bessere Geschäftsergebnisse zu erzielen.

5G öffnet die Tür zu einem goldenen Zeitalter des Edge-Computing im IoT

Mit dem Versprechen, enorme Bandbreiten und Peer-to-Peer-Interaktionen zwischen Geräten bereitzustellen, werden 5G-Netzwerke reichhaltigere gemeinsam genutzte Informationen und Analysen schaffen, die am Rande durchgeführt werden - und das alles ohne die Latenz, die durch die Verwendung von Back-End-Systemen entsteht, die als Arbitrator und zentrale Analyse für Randoperationen fungieren.

Mit der höheren Netzwerkbandbreite werden sich in verschiedenen Branchen - darunter Kommunikation, Medien und Unterhaltung, Logistik und Transport, Gesundheitswesen, Fertigung, Bildung und intelligente Städte - große Veränderungen ergeben. Wir werden sehen, wie sichere, lokalisierte Gruppen an 5G-fähigen Augmented-Reality- und Virtual-Reality-Spielen, Meetings und anderen lokalisierten Peer-to-Peer-Szenarien teilnehmen. In intelligenten Häusern oder intelligenten Krankenhauszimmern, in denen lokale Integration undFunktionen unerlässlich sind, werden mehrere verbundene Geräte Informationen austauschen und Analysen schneller und nahtloser durchführen.

Im nächsten Jahr werden wir im Zuge der Integration von 5G durch Verbraucher und Unternehmen eine verstärkte Interaktion zwischen lokalen Geräten und Gateways erleben, und diese Interaktionen werden neue Nutzungsmuster schaffen. Diese Interaktionen haben das Potenzial, die Entscheidungsfindung von Geräten und Menschen am Netzrand zu verbessern und sogar radikal zu verändern.

Zum Horizont 2020

Der Wunsch, mehr und größere Dinge mit Daten zu tun, ist vielleicht der wichtigste allgemeine Trend, der die Wirtschaft heute prägt. Was vor ein paar Jahren noch spekulativ und ein paar Jahre davor unmöglich war, wird im Jahr 2020 Gestalt annehmen und einen großen Teil dessen ausmachen, was das Unternehmen vorantreibt. Unser ActianTeam ist in bescheidenem Maße inspiriert und ermutigt durch das, was in Zukunft mit Daten möglich sein wird.

Dieser Artikel wurde ursprünglich auf VMBlog veröffentlicht.

actian avatar logo

Über Actian Corporation

Actian macht Daten einfach. Unsere Datenplattform vereinfacht die Verbindung, Verwaltung und Analyse von Daten in Cloud-, Hybrid- und lokalen Umgebungen. Mit jahrzehntelanger Erfahrung in den Bereichen Datenmanagement und -analyse liefert Actian leistungsstarke Lösungen, die es Unternehmen ermöglichen, datengesteuerte Entscheidungen zu treffen. Actian wird von führenden Analysten anerkannt und wurde für seine Leistung und Innovation mit Branchenpreisen ausgezeichnet. Unsere Teams präsentieren bewährte Anwendungsfälle auf Konferenzen (z. B. Strata Data) und tragen zu Open-Source-Projekten bei. Im ActianBlog behandeln wir Themen wie Echtzeit-Dateneingabe, Datenanalyse, Data Governance, Datenmanagement, Datenqualität, Datenintelligenz und KI-gesteuerte Analysen.