Lista de comprobación de la migración de archivos planos para desarrolladores de software Embarqué
Corporación Actian
24 de enero de 2020

Esta es la última entrega de la serie de blogs que escribí sobre el uso continuado de los archivos planos y por qué ya no es viable utilizarlos en el futuro. La primera entrega se centró en los archivos planos y en por qué los desarrolladores de aplicaciones de software Embarqué los adoptaron fácilmente. Luego, en la segunda entrega, hablé de por qué los desarrolladores de Embarqué son reacios a utilizar bases de datos. La tercera entrega analizó por qué los desarrolladores se aferran a los sistemas de archivos planos.
Para esta última entrega, me he dado cuenta de que el argumento a favor de la migración fuera de los archivos planos probablemente deba hacerse de forma más prescriptiva. Así que, junto con nuestro jefe de ingeniería, Desmond Tan, hemos elaborado una lista de razones que en realidad no se refieren a lo que estás utilizando actualmente o a lo que deberías utilizar en abstracto. En su lugar, nos centramos en los requisitos reales que justificarían el cambio de los archivos planos. Esta lista está en función de dónde vemos que evolucionan los casos de uso para Embarqué Edge gestion des données en los espacios de móviles, IoT y equipos inteligentes complejos. También refleja lo que nuestros clientes nos dicen en reuniones privadas sobre sus retos y requisitos empresariales y de producto.
A partir de esta información, he aquí los ocho requisitos principales para una gestion des données moderna gestion des données:
1. La persistencia de datos locales y su uso cambiante
Por lo general, los datos almacenados localmente en archivos planos se necesitaban como caché para operaciones inmediatas sobre datos exclusivos del dispositivo en cuestión. Además, esos datos se evaluaban sin una línea de base de larga duración pero continuamente actualizada. Sin embargo, la necesidad de combinar datos de múltiples dispositivos y fuentes de datos y el uso de datos históricos como patrón de referencia para todo, desde la simple relación señal/ruido hasta la inferencia de aprendizaje automático, significa que la necesidad de gestion des données de operaciones complejas que alimentan el procesamiento y el análisis de datos locales supera la funcionalidad básica que ofrecen los sistemas de archivos.
2. Compatibilidad con múltiples entornos de SO con un único formato de almacenamiento
En los diseños de productos, las carteras de tecnología operativa y el soporte de TI empresarial de las líneas de negocio, una serie de sistemas en el perímetro y de vuelta a la empresa deben compartir datos entre sistemas operativos, desde Android/iOS hasta Windows/Linux y entornos virtualizados en la nube. Un único formato de almacenamiento reduciría significativamente el tiempo y los costes de integración, además de mejorar la seguridad.
3. gestion des données Apoyo a todas las funciones relacionadas con el tratamiento y el análisis de datos
Diferentes roles necesitarán aprovechar el acceso a Edge gestion des données de forma remota y local en esta gama de plataformas subyacentes desde diferentes mecanismos de acceso, incluyendo CLI, programación y lenguajes de scripting. Probablemente haya un debate más largo y necesario sobre por qué esto merece un blog aparte.
4. Gestionar los macrodatos en la periferia
Pregunta sorpresa, ¿cuáles son las cuatro V de Big Data? Sí, todos podéis nombrarlas si os despertáis de un sueño profundo (para aquellos que os neguéis a abandonar ese maravilloso sueño): Volumen, Variedad, Velocidad y Valor). Al igual que Hadoop fue un primer paso a nivel empresarial para abordar la necesidad de un depósito común para Big Data, tiene que haber un equivalente en el Edge. Y, como en el caso del último requisito, se necesita un blog completo para discutir una mayor separación de los archivos planos. Por el momento, la clave tangible es que es necesario ser capaz de soportar diversos tipos de datos, incluyendo JSON, BLOB, y los datos estructurados tradicionales en una sola base de datos.
5. Compartir datos en entornos tradicionales de OT, nube y TI
partage des données debe ser capaz de gestionar escenarios de dispositivo a dispositivo y de dispositivo a pasarela en entornos OT, así como de Edge a Cloud y de Cloud a Data Center para entornos remotos y sucursales en la interfaz de Edge a Cloud. En otras palabras, se necesita una única plataforma para arquitecturas Cliente, Peer-to-Peer, Cliente-Servidor e Internet/Intranet.
6. Funcionamiento autónomo durante los periodos de desconexión
Si bien es posible que el Edge esté evolucionando hacia un estado de hiperconectividad, esto no debe interpretarse erróneamente como una eliminación o reducción de la necesidad de la capacidad de procesar y analizar localmente. En muchas aplicaciones tecnológicas operativas, un enfoque basado únicamente en la web es inviable. Por ejemplo, si tenemos vehículos autónomos, el procesamiento y la toma de decisiones basados en señales de vídeo y lidar para determinar hacia dónde dirigir el coche, a qué velocidad y aceleración -o desaceleración- no pueden ser gestionados por la nube, la latencia por sí sola garantizaría accidentes. En otros casos, la comodidad o la facilidad de uso pueden ser la razón por la que se opta por gestionar las operaciones localmente. Digamos que tienes miles de álbumes localmente en tu colección de iTunes y quieres buscar una canción por su letra en tu vuelo de catorce horas de San Francisco a Nueva Delhi.
7. Recogida de datos multicanal a alta velocidad
Muchas de las señales básicas recopiladas no cambiarán a medida que avancemos hacia un estado más conectado y automatizado; la presión, el volumen y la temperatura son tres buenos ejemplos de ello. Sin embargo, como se ha mencionado anteriormente, los flujos de vídeo para todo, desde el reconocimiento facial a la visión artificial, son cada vez más frecuentes y a resoluciones y frecuencias de imagen mucho más altas: piense en 4K UHD a 120 Hz. También se han mencionado las señales lidar. En una época, yo era ingeniero y construía sistemas de radar láser. Incluso en la época oscura, podía recopilar fácilmente 400 MB de datos al día, tomando decisiones en milisegundos sobre cada conjunto de señales lidar recopiladas. Podría seguir con un ejemplo tras otro. La cuestión es que, con el procesamiento y el análisis de datos de vanguardia, que alcanzan varios terabytes al día y en los que los datos se procesan inmediatamente, pero también se recuperan en parte o en su totalidad para procesarlos posteriormente, todas estas situaciones serán habituales.
8. Aprovechamiento de componentes complementarios del ecosistema disponibles en el mercado
Ni que decir tiene que los que utilizan archivos planos probablemente también sean del tipo "hágalo usted mismo" en otras partes de sus soluciones. El abandono de los archivos planos optimizará la productividad al abrirles el uso de opciones plug-in-play para analytique avancée, herramientas de informes y visualización, y plataformas.
En resumen, si usted está viendo uno o más de estos requisitos que realmente debería considerar la migración de archivos planos a una arquitectura única, escalable y segura que puede manejar déploiement multiplataforma y el desarrollo y le proporciona la potencia para apoyar una miríada de procesamiento de datos avanzados y cas d'usages analytiques. Los archivos planos ya no sirven, amigo mío.
Suscríbase al blog de Actian
Suscríbase al blog de Actian para recibir información sobre datos directamente en su correo electrónico.
- Manténgase informado: reciba lo último en análisis de datos directamente en su bandeja de entrada.
- No se pierda ni una publicación: recibirá actualizaciones automáticas por correo electrónico que le avisarán cuando se publiquen nuevas publicaciones.
- Todo depende de usted: cambie sus preferencias de entrega para adaptarlas a sus necesidades.