Rechen- und Speicherressourcen mit Actian Data Platform auf GKE
Actian Germany GmbH
31. März 2021

On-Premise, Sie sind geerdet
Das Aufkommen des Hadoop Distributed File System (HDFS) und die Möglichkeit, einen Daten-Lake von nie dagewesener Tiefe zu schaffen - und das auf Standard-Hardware! - war ein solcher Durchbruch, dass der administrative Aufwand und die Hardwarekosten, die mit dem Aufbau einer HDFS-basierten Analyselösung verbunden waren, akzeptable Opfer der Innovation waren. Heute jedoch, mit einem Analysewerkzeug wie der Actian Data Platform (früher bekannt als Avalanche), die in Containern und in der Cloud läuft und die Vorteile von Google Kubernetes Engine (GKE) nutzt, gibt es keinen Grund mehr, sich mit diesen Schwierigkeiten abzufinden. Da Actian auf GKE Rechen- und Speicherressourcen als separate Ressourcen behandelt, können Unternehmen die Leistungsfähigkeit von Actian nutzen, um all ihre analytischen Anforderungen sowohl im Tagesgeschäft als auch in der Hochsaison kennenlernen - und das einfacher und kostengünstiger als je zuvor.
Bedenken Sie: Als Hadoop zum ersten Mal erschien, wurde die Cloud nicht als Option für Data Analytics. Der Aufbau eines HDFS-basierten Daten-Lake erforderte das Hinzufügen von Servern und Speicherressourcen On-Premises - was auch Investitionen in zusätzliche Infrastruktur (Netzwerke, Load Balancer usw.) sowie Personal vor Ort bedeutete, um die wachsende Zahl von Schränken verwalten und zu warten, die das Rechenzentrum in Beschlag nahmen. Die Kosten für analytische Erkenntnis wurden noch dadurch in die Höhe getrieben, dass all diese Rechen- und Speicherressourcen mit Blick auf die Spitzenverarbeitungsanforderungen eines Unternehmens bereitgestellt werden mussten. Unabhängig davon, dass diese Spitzen nur gelegentlich auftraten - am Ende des Quartals oder während der geschäftigen Weihnachtseinkaufssaison - musste der Cluster , der die Analysen durchführte, bereit sein, diese Anforderungen zu erfüllen, wenn sie auftraten. War ein großer Teil der CPU , des Arbeitsspeichers und des Speicherplatzes während der Nicht-Spitzenzeiten ungenutzt? Ja, aber das war der Preis, der für eine zuverlässige Leistung während der Spitzenlastzeiten zu zahlen war.
Doch die Leistung in Spitzenzeiten war nicht das einzige Element, das die Kosten für einen HDFS-basierten Daten-Lake vor Ort in die Höhe trieb. Wenn das Unternehmen große Datenmengen speichern musste, erforderte die verteilte Natur von HDFS, dass Unternehmen mehr Rechenressourcen bereitstellen mussten, um den zusätzlichen Speicher verwalten - selbst wenn es bereits überschüssige Rechenkapazitäten innerhalb des breiteren analytischen Cluster gab. Außerdem fügte niemand bei der Kapazitätserweiterung auch nur ein wenig Speicher hinzu. Selbst wenn man nur ein paar GB zusätzlichen Speicherplatz benötigte, stellte man einen neuen Server mit mehreren Terabyte Hochgeschwindigkeitsspeicher bereit, auch wenn das bedeutete, dass man über einen langen Zeitraum in diesen Speicherplatz hineinwachsen würde. Außerdem musste jedes Unternehmen dies selbst herausfinden, was einen erheblichen Aufwand an qualifizierten IT-Ressourcen bedeutete, die anderweitig eingesetzt werden konnten.
Die Fesseln am Boden lockern
Actian hat die Verbindung zwischen Rechenleistung und Speicherplatz aufgehoben. Actian läuft in der Cloud auf GKE und skaliert Rechen- und Speicherkapazität unabhängig voneinander. Dies eröffnet Unternehmen, die flexible, High-Performance, Cloud Analyselösungen suchen, große Möglichkeiten und potenziell große Kosteneinsparungen.
Wir haben bereits über die administrativen Vorteile der Ausführung der Actian Data Platform als containerisierte Anwendung auf GKE gesprochen. Actian kann auf Google GKE schneller und einfacher bereitgestellt werden, da alle Komponenten sofort einsatzbereit sind. Es müssen keine Konfigurationsskripte ausgeführt oder Anwendungsstapel in der falschen Reihenfolge erstellt werden. Was wir in unserem letzten Blog zu diesem Thema nicht erwähnt haben (oder zumindest nicht näher erläutert haben), ist, dass Sie Actian auf GKE nicht konfigurieren müssen, um diese Leistungsspitzen kennenlernen . Sie können Actian auch mit Blick auf Ihre alltäglichen Leistungsanforderungen einsetzen. Wir haben auch nicht erwähnt, dass Sie keinen Speicher für jeden Worker Node im Cluster bereitstellen müssen.
Wie ist das möglich, fragen Sie? Weil die Cloud-Services von Google hochgradig elastisch sind - etwas, das man von einer lokalen Infrastruktur nicht behaupten kann. Obwohl die einem ActianCluster anfänglich zugewiesenen Rechenressourcen (gemessen in Actian Units, AUs) ausreichen, um die täglichen Arbeitslasten zu unterstützen, reichen sie bei Bedarfsspitzen nicht aus, um die gewünschte Rechenleistung zu erbringen - schließlich sind sie für den täglichen Datenverkehr konfiguriert. Die Elastizität der Google-Cloud-Infrastruktur ist so beschaffen, dass zusätzliche AUs zum Cluster hinzugefügt werden können, wenn sie benötigt werden. Sie müssen lediglich die AUs auf das gewünschte Leistungsniveau skalieren, und die Google Compute-Infrastruktur kümmert sich um den Rest. Mehr AUs bedeuten, dass je nach Bedarf mehr Kerne hinzugefügt - oder abgezogen - werden. Ja, wenn Sie während dieser Spitzenzeiten mehr Rechenleistung in Anspruch nehmen, zahlen Sie mehr für die Nutzung dieser Ressourcen, aber ein großer Vorteil der Cloud ist, dass Sie letztendlich nur für die tatsächlich genutzten Rechenressourcen zahlen. Sobald die Spitzenzeiten vorbei sind, können die zusätzlichen AUs entfernt werden, und Ihre Kosten sinken wieder auf das Niveau Ihrer täglichen Verarbeitungsanforderungen.
Ähnlich verhält es sich mit dem Speicherplatz: Die Google Cloud weist so viel Speicherplatz zu, wie Ihre Daten benötigen. Wenn Sie Daten zum System hinzufügen oder daraus entfernen, erhöht oder verringert Google die Menge des zugewiesenen Speichers für Ihre Bedürfnisse - sofort und automatisch.
Zufriedenheit auftischen
Nutzen dieser Speicherelastizität wird noch offensichtlicher, wenn Sie erkennen, dass Sie keine zusätzlichen HDFS-Arbeitsknoten bereitstellen müssen, nur um diese Daten verwalten - selbst wenn Sie Ihre Datenbank um zusätzliche 4, 40 oder 400 TB erweitern. Genau wie bei zusätzlichen Rechenkernen zahlen Sie mehr für mehr Speicherplatz - es ist das gleiche Pay-for-You-Use-Modell - aber da die Speicher- und Rechenkomponenten getrennt wurden, müssen Sie nicht für jedes zusätzliche TB Speicher einen dedizierten Server zur verwalten hinzufügen. GKE stellt immer sicher, dass Actian über die Rechenressourcen verfügt, um die von Ihnen benötigte Leistung zu erbringen. Sie können die Anzahl der AUs auf der Grundlage Ihrer Leistungserwartungen erhöhen oder verringern und müssen sich nicht an die Beschränkungen einer Laufzeitarchitektur halten, die mit Blick auf die Beschränkungen einer On-Prem-Lösung entwickelt wurde.
Letztendlich bietet die Trennung von Rechen- und Speicherleistung einen enormen Vorteil für jeden, der an ernsthaften Analysen interessiert ist. Große Unternehmen können ihre Kosten senken, da sie ihre On-Premise-Infrastrukturen nicht übermäßig ausbauen müssen, um den Leistungsanforderungen gerecht zu werden, von denen sie wissen, dass sie eintreffen werden. Kleinere Unternehmen können eine Analyseinfrastruktur aufbauen, die vorher vielleicht unerschwinglich gewesen wäre, da sie auch nicht für Leistungsspitzen konfiguriert werden müssen. Sowohl für große als auch für kleine Unternehmen stellt Google die Ressourcen bereit, die für Ihre Analysen erforderlich sind - nicht mehr und nicht weniger - und ermöglicht es Actian auf der Google Cloud Platform, die erforderlichen analytischen Erkenntnisse zu liefern, ohne die Bank zu sprengen.
Abonnieren Sie den Actian Blog
Abonnieren Sie den Blog von Actian, um direkt Dateneinblicke zu erhalten.
- Bleiben Sie auf dem Laufenden: Holen Sie sich die neuesten Informationen zu Data Analytics direkt in Ihren Posteingang.
- Verpassen Sie keinen Beitrag: Sie erhalten automatische E-Mail-Updates, die Sie informieren, wenn neue Beiträge veröffentlicht werden.
- Ganz wie sie wollen: Ändern Sie Ihre Lieferpräferenzen nach Ihren Bedürfnissen.