Integration von Daten

eingebettet Integration: Analysen berechnen, wo die Daten liegen

Actian Germany GmbH

Januar 28, 2020

actian zen, die marktführende eingebettet Datenbank

Die Wahl des besten Standorts für Ihre Analyseberechnungen stellt ein interessantes Dilemma dar, das in einigen Unternehmen zu nachdenklichen Debatten führt, während andere das Thema nicht einmal in Betracht ziehen. Wenn Sie mit verteilten Systemen, eingebettet Sensoren in Maschinen, mobilen Apps oder IoT zu tun haben, ist dieses Thema für Sie! Wo Sie Rechenressourcen für die Analytik ansiedeln, hat einen erheblichen Einfluss auf die Leistung Ihrer Lösungen, die Belastung Ihres Netzwerks und die Kosten der zentralen Datenspeicherung (entweder On-Premises oder in der Cloud).

Was ist Analytics Compute?

Einfach ausgedrückt ist Analytics Compute die Datenverarbeitungsfähigkeit, mit der Sie Rohdaten in aussagekräftige Informationen umwandeln. eingebettet Systeme erzeugen Daten entweder durch Sensoren oder durch Protokolle ihrer Aktivitäten. Diese Daten sind zwar relevant, aber nicht sehr nützlich, solange sie nicht verarbeitet und in Informationen und weiter in verwertbare Erkenntnisse umgewandelt werden. Dieser Veredelungsprozess umfasst das Sammeln, Filtern, Sortieren, Klassifizieren, Bewerten, Interpretieren und Zusammenfassen von Datenströmen mithilfe von Geschäftsregeln, mathematischen Algorithmen, statistischen Methoden und Mustervergleichsvorlagen. Wenn Sie diese Analysetechniken und Geschäftsregeln auf Ihre Streaming anwenden, handelt es sich um analytische Berechnungen.

Das Dilemma in Bezug auf den Standort von Funktionen

eingebettet Systemen handelt es sich in der Regel um verteilte Systeme, die sich an vielen verschiedenen Orten innerhalb und außerhalb Ihres Unternehmens befinden. Die Personen, die die von den eingebettet Systemen erzeugten Daten verstehen müssen, sind oft zentralisiert - sie befinden sich in einem Bürogebäude, das von dem System, das die Daten erzeugt, entfernt ist. Dies ist wichtig, da die Daten aus eingebettet Systemen nicht nur zu aussagekräftigen Informationen aufbereitet werden müssen, sondern auch von der ursprünglichen Quelle zu der Person transportiert werden müssen, die sie einsehen muss. Hier kommt das Dilemma ins Spiel: Wo sollte man die Analysen durchführen?

  • An der Quelle, im eingebettet System selbst?
  • Am Rande des Netzes in einem Edge-Gerät?
  • In der Cloud oder in einem zentralisierten Rechenzentrum?
  • In einem Data Warehouse vor Ort oder in der Cloud oder einer hybriden Umgebung?
  • Wo sollen die Informationen im Berichtssystem konsumiert werden?

Jede dieser Optionen hat ihre Vor- und Nachteile. Zentralisierte Rechenzentren und Cloud sind Großsysteme, die Größenvorteile bieten und Rechenressourcen billiger machen. Das Problem besteht darin, die Daten zu ihnen zu bringen. Wenn Sie alle Ihre Rohdaten an einen Cloud , ein Data Warehouse oder den Desktop Ihrer Endbenutzer übertragen, übermitteln Sie große Datenmengen, die Sie nicht wirklich benötigen (Daten, die bei der Analyse herausgefiltert werden). Außerdem belasten Sie Ihr Netzwerk, erhöhen die Latenzzeit, steigern Ihre Netzwerkkosten und verlangsamen möglicherweise andere Geschäftsaktivitäten, die diese Kapazität nutzen müssen. Wenn Sie Rechenoperationen innerhalb des eingebettet Systems oder in einem Edge-Gerät durchführen, vermeiden Sie den Netzwerkverkehr. Sie erhalten jedoch keine Größenvorteile und die Rechenressourcen sind teurer.

Eine allgemeine Regel für optimale Effizienz: "Setzen Sie Ihre Analyseberechnungen dort ein, wo die Daten liegen."

Relativ gesehen sind Rechenressourcen (auch verteilte) billiger als Netzkapazitäten. Die meisten Systeme nutzen ihre Rechenkapazitäten nicht voll aus, was bedeutet, dass Sie Ressourcen, für die Sie bereits bezahlen, ungenutzt lassen. Die allgemeine Regel, die Datenexperten empfehlen, lautet: "Stellen Sie Ihre Analyse-Rechner dort auf, wo die Daten liegen" oder so nah wie möglich daran. Wenn die Rohdaten in eingebettet Systemen generiert werden, sollten Sie so viele Analysen wie möglich auf diesen Daten durchführen, entweder im eingebettet System oder in einem Netzwerk-Edge-Gerät. Führen Sie zumindest die Aufgaben durch, die nicht benötigte Daten herausfiltern und das Datenvolumen, das über das Netzwerk übertragen werden muss, verringern.

Sobald Sie die Streaming durch die erste Stufe der Analyseverarbeitung vor Ort reduziert haben, müssen Sie wahrscheinlich die Daten aus verschiedenen eingebettet Systemen oder verteilten Geräten miteinander kombinieren. Die Datenaggregation und weitere Analysen können nicht effektiv im Feld durchgeführt werden und sind besser für ein Data Warehouse geeignet. Streamen Sie also Ihre (vorverarbeiteten) Daten in ein Cloud oder ein On-Premises , wo Sie die Daten in einem Batch verarbeiten können. Die Analyseberechnungen für Daten, die in einem Data Warehouse gespeichert sind, sollten ebenfalls so nah wie möglich am Ort der Daten durchgeführt werden. Wenn Sie die Berechnungen auf demselben physischen Host durchführen können, ist das großartig! Wenn nicht, sollten Sie sie im selben Rechenzentrum durchführen, um Netzwerklatenz bei der Verarbeitung zu vermeiden.

actian avatar logo

Über Actian Corporation

Actian macht Daten einfach. Unsere Datenplattform vereinfacht die Verbindung, Verwaltung und Analyse von Daten in Cloud-, Hybrid- und lokalen Umgebungen. Mit jahrzehntelanger Erfahrung in den Bereichen Datenmanagement und -analyse liefert Actian leistungsstarke Lösungen, die es Unternehmen ermöglichen, datengesteuerte Entscheidungen zu treffen. Actian wird von führenden Analysten anerkannt und wurde für seine Leistung und Innovation mit Branchenpreisen ausgezeichnet. Unsere Teams präsentieren bewährte Anwendungsfälle auf Konferenzen (z. B. Strata Data) und tragen zu Open-Source-Projekten bei. Im ActianBlog behandeln wir Themen wie Echtzeit-Dateneingabe, Datenanalyse, Data Governance, Datenmanagement, Datenqualität, Datenintelligenz und KI-gesteuerte Analysen.