Los retos de la telemetría
Corporación Actian
7 de septiembre de 2022

La telemetría es el proceso de comunicación automatizado mediante el cual se realizan mediciones y se recogen datos en puntos remotos. A continuación, los datos se transmiten a equipos receptores para su control. La palabra "telemetría" procede de raíces griegas: tele = remoto, y metron = medir.
La telemetría no es un concepto nuevo, eso está claro. Llevamos décadas viendo cómo funciona la telemetría. Por ejemplo, hemos colocado transmisores en animales migratorios, boyas meteorológicas, vigilancia sísmica, etc. Sin embargo, el uso de la telemetría sigue acelerándose, y esta tecnología planteará enormes retos a los que somos responsables de la recogida, integración y análisis de datos.
El auge más reciente de la telemetría gira en torno al uso de dispositivos nuevos y baratos que ahora empleamos para recopilar todo tipo de datos. Desde los Fit Bits que todo el mundo lleva hoy en día para contar los pasos que damos, pasando por los termostatos inteligentes que controlan la temperatura y la humedad, hasta la información que proporcionan nuestros automóviles sobre el estado del motor.
El auge de la "Internet de los objetos" también forma parte de ello. Se trata de una palabra de moda inventada por una industria que busca poner nombre a la rápida aparición de muchos dispositivos que pueden producir datos, así como a la capacidad de estos dispositivos para autoanalizarse y, por tanto, autocorregirse. Las máquinas de resonancia magnética de los hospitales, los robots de las fábricas y los sensores de movimiento que registran la actividad de los empleados son sólo algunos de los dispositivos que generan megabytes de datos cada día.
Normalmente, este tipo de información fluye desde los dispositivos como flujos de datos no estructurados. En algunos casos, los datos se conservan en el dispositivo, y en otros no. En cualquier caso, la información debe recopilarse, almacenarse en una estructura adecuada, quizá combinada con otros datos, y almacenarse en una base de datos transaccional. A partir de ahí, los datos pueden transferirse a una base de datos orientada al análisis o analizarse in situ.
Los problemas surgen cuando llega el momento de tratar esa información. Obviamente, la integración de datos es fundamental para la mayoría de las operaciones de telemetría. La información debe gestionarse de punto a punto y luego persistir en bases de datos transitorias o analíticas. Aunque esto es algo que llevamos haciendo desde hace tiempo, el volumen de información que generan estos dispositivos remotos es nuevo y, por tanto, tenemos una necesidad creciente de gestionar eficazmente un volumen de datos cada vez mayor.
Tomemos el caso de los nuevos dispositivos de telemetría sanitaria que están saliendo al mercado. Pueden monitorizar la mayoría de nuestras constantes vitales, como la tensión arterial, la respiración, la saturación de oxígeno y la frecuencia cardiaca, a intervalos de sub-segundos. Estos sensores suelen transmitir los datos a un teléfono inteligente, donde se formatea la información para transferirla a una base de datos remota, normalmente en la nube.
El valor de estos datos es muy alto. Si recopilamos estos datos a lo largo del tiempo y los comparamos con patrones de datos conocidos, podremos determinar la verdadera trayectoria de nuestra salud. Quizá podamos detectar un infarto u otros problemas de salud importantes antes de que se produzcan. O bien, esta información podría conducir a mejores datos sobre tratamiento y resultados, teniendo en cuenta que los síntomas, el tratamiento y los resultados serán ahora objeto de un estrecho seguimiento a lo largo de varios años.
Aunque la cantidad de datos era relativamente razonable en el pasado, el número de puntos de datos y la frecuencia de recopilación se están disparando. Es imperativo que encontremos el mejor camino hacia la integración de datos para el uso creciente de la telemetría. Algunas necesidades son ciertas:
- La necesidad de recopilar información para cientos, quizás miles de puntos de datos/dispositivos al mismo tiempo. Por lo tanto, tenemos que identificar la fuente de los datos, así como la forma en que los datos deben ser gestionados en vuelo, y cuando se almacena en un objetivo.
- La necesidad de manejar megabytes, quizá gigabytes de datos por hora procedentes de un solo dispositivo, cuando antes sólo eran unos pocos kilobytes. Dado el creciente número de dispositivos (nuestro punto anterior), el cálculo es fácil. La cantidad de datos que hay que transmitir y procesar se dispara.
- Las cantidades masivas de datos plantearán algunos problemas de gouvernance y calidad de los datos que deben abordarse en la capa de integración de datos. Normalmente, los datos no se validan cuando los genera un dispositivo, sino que deben comprobarse en algún momento. Además, la complejidad de estos sistemas hace imprescindible el uso de enfoques y tecnologías de gouvernance de datos.
En mi opinión, se trata de algo apasionante. Estamos aprendiendo a recopilar los datos adecuados, en mayores volúmenes, y a aprovecharlos para obtener resultados más valiosos. Este estado de los datos ha sido el objetivo durante años, pero nunca fue realmente factible. Los avances actuales en telemetría nos brindan una gran oportunidad.
Suscríbase al blog de Actian
Suscríbase al blog de Actian para recibir información sobre datos directamente en su correo electrónico.
- Manténgase informado: reciba lo último en análisis de datos directamente en su bandeja de entrada.
- No se pierda ni una publicación: recibirá actualizaciones automáticas por correo electrónico que le avisarán cuando se publiquen nuevas publicaciones.
- Todo depende de usted: cambie sus preferencias de entrega para adaptarlas a sus necesidades.