Steffen Kläbe gana el premio a la mejor comunicación en la Conferencia EDBT/ICDT 2023
Corporación Actian
19 de abril de 2023

Queremos reconocer la labor de Steffen Kläbe, ingeniero de investigación de Actian en llmenau (Turingia, Alemania). Asistió a la conferencia conjunta 2023 de EDBT/ICDT en Grecia, una de las principales conferencias sobre bases de datos del mundo, donde presentó dos trabajos de investigación. Por su investigación sobre Patched Multi-Key Partitioning for Robust Query Performance (Particionamiento de múltiples claves con parches para un rendimiento robusto de las consultas) recibió el premio al mejor artículo. En la comunidad investigadora, este premio es todo un éxito.
Ver el resumen:
"El particionamiento de datos es la clave para el procesamiento paralelo de consultas en los modernos sistemas analíticos de bases de datos. Elegir la clave de partición adecuada para un determinado jeu de données es una tarea difícil y crucial para el rendimiento de las consultas. Los almacenes de datos del mundo real contienen una gran cantidad de tablas conectadas en esquemas complejos, lo que da lugar a una cantidad abrumadora de candidatas a clave de partición. En este artículo, presentamos el enfoque del particionamiento de múltiples claves con parches, que permite definir múltiples claves de partición simultáneamente sin replicación de datos. La idea clave es trasladar el problema de partición de tablas relacionales a un problema de partición de grafos, con el fin de utilizar los algoritmos de partición de grafos existentes para encontrar componentes de conectividad en los datos y mantener por separado las excepciones (parches) a la partición. Demostramos que el particionamiento de múltiples claves con parches ofrece oportunidades para lograr un rendimiento robusto de las consultas, es decir, alcanzar un rendimiento razonablemente bueno para muchas consultas en lugar de un rendimiento óptimo sólo para unas pocas consultas."
Documento adicionalde Kläbe Exploración de enfoques para ML en bases de datos aborda el papel cada vez más importante que desempeña la integración de modelos de ML con marcos especializados de clasificación o predicción.
Ver el resumen:
"Los sistemas de bases de datos ya no se utilizan únicamente para almacenar datos estructurados simples y realizar análisis básicos. Cada vez desempeñan un papel más importante la integración de modelos de ML, por ejemplo, redes neuronales con marcos especializados, y su uso para clasificación o predicción. Sin embargo, el uso de estos modelos en datos almacenados en un sistema de base de datos puede requerir la descarga de los datos y la realización de los cálculos fuera de él. En este artículo, evaluamos enfoques para integrar el paso de inferencia ML como un operador de consulta especial: el ModelJoin. Exploramos varias opciones para esta integración en diferentes niveles de abstracción: representación relacional de los modelos y consultas SQL para la inferencia, el uso de UDFs, el uso de APIs para los tiempos de ejecución de ML existentes y una implementación nativa del ModelJoin como operador de consulta compatible con la ejecución processeur y GPUs. Los resultados de nuestra evaluación muestran que la integración de los tiempos de ejecución de ML a través de APIs tiene un rendimiento similar al de un operador nativo, al tiempo que es genérico para soportar tipos de modelos arbitrarios. La solución de representación relacional y consultas SQL es la más portátil y funciona bien para entradas más pequeñas sin necesidad de realizar cambios en el motor de la base de datos."
¡Enhorabuena, Steffan! Esperamos ver más victorias e investigaciones tuyas en el futuro.
Suscríbase al blog de Actian
Suscríbase al blog de Actian para recibir información sobre datos directamente en su correo electrónico.
- Manténgase informado: reciba lo último en análisis de datos directamente en su bandeja de entrada.
- No se pierda ni una publicación: recibirá actualizaciones automáticas por correo electrónico que le avisarán cuando se publiquen nuevas publicaciones.
- Todo depende de usted: cambie sus preferencias de entrega para adaptarlas a sus necesidades.