Steffen Kläbe gewinnt das beste Papier auf der EDBT/ICDT-Konferenz 2023
Actian Germany GmbH
April 19, 2023

Wir möchten Steffen Kläbe, einen Forschungsingenieur bei Actian in Ilmenau (Thüringen, Deutschland), auszeichnen. Er nahm an der gemeinsamen Konferenz 2023 von EDBT/ICDT in Griechenland teil, einer der wichtigsten Datenbankkonferenzen weltweit, und präsentierte dort zwei Forschungspapiere. Für seine Forschung über Patched Multi-Key Partitioning for Robust Anfrage Performance erhielt er eine Auszeichnung für das beste Papier. In der Forschungsgemeinschaft ist diese Auszeichnung ein großer Erfolg.
Die Zusammenfassung ansehen:
"Die Datenpartitionierung ist der Schlüssel zur parallelen Anfrage in modernen analytischen Datenbanksystemen. Die Wahl des richtigen Partitionierungsschlüssels für einen gegebenen Datensatz ist eine schwierige Aufgabe und entscheidend für die Anfrage . Reale Data Warehouses enthalten eine große Anzahl von Tabellen, die in komplexen Schemata verbunden sind, was zu einer überwältigenden Anzahl von Partitionsschlüsselkandidaten führt. In diesem Beitrag stellen wir den Ansatz der gepatchten Multi-Schlüssel-Partitionierung vor, der es ermöglicht, mehrere Partitionsschlüssel gleichzeitig ohne Datenreplikation zu definieren. Die Schlüsselidee besteht darin, das relationale Tabellenpartitionierungsproblem auf ein Graphenpartitionierungsproblem abzubilden, um bestehende Graphenpartitionierungsalgorithmen zu nutzen, um Konnektivitätskomponenten in den Daten zu finden und Ausnahmen (Patches) von der Partitionierung separat zu pflegen. Wir zeigen, dass die gepatchte Partitionierung mit mehreren Schlüsseln die Möglichkeit bietet, eine robuste Anfrage zu erreichen, d.h. eine einigermaßen gute Performance für viele Abfragen zu erzielen, anstatt eine optimale Performance für nur wenige Abfragen."
Kläbe's zusätzliches Papier Erforschung von Ansätzen für datenbankinterne ML befasst sich mit der zunehmenden Bedeutung der Integration von ML-Modellen in spezialisierte Rahmenwerke für Klassifizierung oder Vorhersage.
Die Zusammenfassung ansehen:
"Datenbanksysteme werden nicht mehr nur für die Speicherung einfach strukturierter Daten und grundlegende Analysen verwendet. Eine zunehmende Rolle spielt auch die Integration von ML-Modellen, z. B. neuronalen Netzen mit spezialisierten Frameworks, und ihre Verwendung für Klassifizierung oder Vorhersage. Die Verwendung solcher Modelle auf Daten, die in einem Datenbanksystem gespeichert sind, erfordert jedoch möglicherweise das Herunterladen der Daten und die Durchführung der Berechnungen außerhalb des Systems. In diesem Beitrag evaluieren wir Ansätze zur Integration des ML-Inferenzschritts als speziellen Anfrage - den ModelJoin. Wir kennenlernen verschiedene Optionen für diese Integration auf unterschiedlichen Abstraktionsebenen kennenlernen : relationale Repräsentation der Modelle sowie SQL-Abfragen für die Inferenz, die Verwendung von Nutzer Defined Functions (UDFs), die Verwendung von APIs zu bestehenden ML-Laufzeiten und eine native Implementierung des ModelJoin als Anfrage , der sowohl CPU als auch GPU-Ausführung unterstützt. Unsere Evaluierungsergebnisse zeigen, dass die Integration von ML-Laufzeiten über APIs eine ähnliche Leistung wie ein nativer Operator erbringt und gleichzeitig generisch ist, um beliebige Modelltypen zu unterstützen. Die Lösung mit relationaler Darstellung und SQL-Abfragen ist am portabelsten und funktioniert gut für kleinere Eingaben, ohne dass Änderungen an der Datenbank-Engine erforderlich sind."
Herzlichen Glückwunsch, Steffan! Wir freuen uns darauf, in Zukunft noch mehr von deinen Siegen und deiner Forschung zu sehen.
Abonnieren Sie den Actian Blog
Abonnieren Sie den Blog von Actian, um direkt Dateneinblicke zu erhalten.
- Bleiben Sie auf dem Laufenden - Holen Sie sich die neuesten Informationen zu Data Analytics direkt in Ihren Posteingang.
- Verpassen Sie keinen Beitrag: Sie erhalten automatische E-Mail-Updates, die Sie informieren, wenn neue Beiträge veröffentlicht werden.
- Ganz wie sie wollen: Ändern Sie Ihre Lieferpräferenzen nach Ihren Bedürfnissen.