Esta es la octava entrega de una serie de blogs sobre computación edge, y en una de las publicaciones anteriores, hablamos sobre el modelado de aprendizaje automático en el perímetro. En él, mencionamos cómo se crearon y desplegaron modelos de machine learning (ML) en los nodos edge. Pero, ¿qué pasa con las transmisiones de video y otros datos no estructurados que generan todos esos dispositivos de tipo Internet de las cosas (IoT)? ¿Se pueden analizar todos esos datos y se pueden producir resultados en tiempo real? ¿Cómo se hace? Si no se pueden analizar en el borde en tiempo real, ¿a dónde se envían esos datos, cuál es el formato de esos datos y con qué rapidez se pueden analizar? Por último, ¿es necesario almacenar esos datos y, de ser así, dónde se almacenan y por qué? Esta entrada en el blog intenta responder a estas preguntas. Algunos lo llaman "análisis edge" o "IA en el edge".
Asegúrese de revisar todas las entregas de esta serie de entradas en el blog sobre computación edge:
Boletín de la industria
Manténgase al día sobre las tendencias más importantes e intrigantes de la industria sobre IA, automatización, datos y más con el boletín Think. Consulte la Declaración de privacidad de IBM.
Su suscripción se entregará en inglés. En cada boletín, encontrará un enlace para darse de baja. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.
La definición de edge analytics es simplemente el proceso de recopilar, analizar y crear insights procesables en tiempo real, directamente desde los dispositivos IoT que generan los datos. Algunos podrían argumentar que esto es edge computing; de hecho, el análisis de datos edge lleva las cosas al siguiente nivel, en el que se capturan más datos y se realizan analytics complejas antes de tomar medidas rápidas. La computación edge es similar a la construcción si/entonces en la programación de software; edge analytics adopta el enfoque hipotético.
Los puristas de la IA dirían que el edge analytics se ocupa de la predicción (inferencia), es decir, aplicar el conocimiento de un modelo de redes neuronales entrenado y usarlo para inferir un resultado.
El hecho es que la generación de datos está superando la capacidad de la red. Por lo tanto, tenemos que ser inteligentes sobre qué datos analizar, qué datos enviar a la nube para su almacenamiento y, lo más importante, dónde deben analizarse los datos. Si bien la respuesta más fácil a estas preguntas es "depende", existen razones y recomendaciones comerciales y técnicas.
Dos factores dictan esa respuesta: cuán crítico es analizar los datos en tiempo real y si es necesario realizar análisis adicionales con esos datos. Luego, está ese requisito de almacenamiento (o no) para cumplir con los requisitos de cumplimiento empresarial y jurisdiccional.
Algunos dicen que la nube no es un gran lugar para el análisis en tiempo real. Por lo tanto, enviar todos los datos a la nube no es la respuesta porque la mayoría de los datos almacenados en la nube nunca se analizan. Termina en alguna base de datos o bit bucket, y simplemente permanece allí.
Tomando el ejemplo de una cámara remota que captura video, algunos de los pros y contras de analytics en el edge frente a analytics en el servidor se capturan en la siguiente tabla:
La concientización es la percepción de elementos y eventos ambientales con respecto al tiempo o al espacio, la comprensión de su significado y la proyección de su estado futuro. Esa definición está tomada de Wikipedia y los tres niveles de concientización se muestran en el gráfico a continuación. Dado que el tiempo es el aspecto más importante en la concientización, por extensión, podemos decir que el tiempo es una fuerza impulsora para analytics, especialmente analytics en el borde:
Figura 1: Tres niveles de concientización situacional.
Los eventos en el borde implicarían analizar lo que ve la cámara o lo que detecta el sensor en tiempo real para poder tomar decisiones rápidamente y tomar medidas inmediatas. Cuando dos autos están en una trayectoria de colisión, no hay tiempo para enviar la información a la nube o notificar a alguien; se pueden prever las consecuencias de permanecer en la ruta actual y se puede evitar una colisión tomando medidas inmediatas. Cuando la cámara inteligente que observa a un robot de pintura en una planta de fabricación de automóviles ve que se aplica la cantidad incorrecta de pintura en una pieza de la carrocería del automóvil, es necesario tomar medidas correctivas. Todo esto solo es posible con modelos predefinidos desplegados en dichos dispositivos o sistemas.
Pero, ¿qué pasa con las situaciones nuevas o hasta ahora no previstas? En las zonas de construcción, las cámaras pueden entrenarse para detectar a alguien que no use un casco y hacer sonar una alarma o notificar al supervisor del sitio. Los sensores de entrada pueden detectar si las personas llevan una insignia o portan armas, etc. En un desastre natural como una pandemia, nos gustaría que esos mismos dispositivos detectarán artículos relacionados con el estado, como mascarillas, guantes, etc.
Habría que mejorar los modelos existentes o desplegar nuevos modelos de machine learning (ML) para que esos dispositivos edge detecten y analicen tales situaciones y tomen las medidas necesarias. La acción resultante es programable y depende de la situación específica. Se podrían activar alarmas, o se podría notificar al personal apropiado, o se podría prohibir la entrada a las personas. Ese es el poder de los analytics edge.
Emitir una alerta cuando un dispositivo alcanza un determinado umbral es bastante simple, pero el verdadero valor radica en producir un análisis visual de múltiples variables de datos en tiempo real y encontrar un significado predictivo en el flujo de datos. Esto puede ayudar a las empresas a identificar posibles valores atípicos o problemas que necesitan profundizar y realizar análisis adicionales.
El análisis edge no siempre es visual: hay muchas otras facetas que producen datos, como el análisis de impactos y vibraciones, la detección de ruido, la detección de temperatura, los manómetros, los medidores de flujo y el análisis de audio y tono. Los sistemas de prevención de colisiones en los automóviles lo hacen con sensores y no con cámaras. Si bien las aplicaciones de análisis de borde necesitan funcionar en dispositivos de borde que pueden tener limitaciones de memoria, Power® de procesamiento o comunicación, estos dispositivos se conectarían a un servidor de borde/puerta de enlace donde se ejecutan las aplicaciones en contenedores containerizadas.
Se utilizan diferentes protocolos para transmitir datos desde los dispositivos al servidor o puerta de enlace (normalmente conocida como la primera milla). Estos son algunos de los protocolos comunes, pero no es un conjunto completo:
La pila de software variará según el caso de uso de una industria en particular, pero en términos generales, las topologías de edge analytics suelen implicar una combinación de productos. En el borde más alejado, habría dispositivos visuales, de audio o sensoriales, algunos de los cuales son capaces de ejecutar un modelo de inferencia en contenedores. Enviarían datos a un servidor de inferencia, posiblemente ejecutando IBM® Visual Insights e IBM® Edge Application Manager. Los datos no visuales se enviarían a una red troncal de eventos mediante IBM® Event Streams o Apache Kafka. Y los productos de software como IBM® watsonx que entrenan/reentrenan modelos, además de middleware como IBM® Cloud Pak for Data e IA podrían agregar, limpiar y analizar datos en la siguiente capa.
Tenga en cuenta el gráfico de concientización mostrado arriba; desde la percepción hasta la acción, el análisis tiene que operar en tiempo real. El diagrama de arquitectura de bloques muestra varios componentes en juego, con tiempos de latencia mostrados en milisegundos entre las diferentes capas:
Figura 2: Arquitectura de componente de analytics de borde.
Resulta que los humanos estamos muy afinados y, a nivel cognitivo, operamos en el rango de milisegundos (y a veces en microsegundos). Por lo tanto, las respuestas y decisiones de las máquinas y los dispositivos deben acercarse a eso y no tardar 100 o 500 milisegundos en enviar datos a la nube.
Uno de los requisitos clave de las analytics es mejorar las experiencias reduciendo la latencia de las respuestas. El otro aspecto es la escalabilidad. El número cada vez mayor de sensores y dispositivos de red generará cada vez más datos. Eso aumentará la presión sobre los recursos centrales de analytics. Edge analytics permite a las organizaciones escalar sus capacidades de procesamiento y analytics descentralizando a las ubicaciones donde realmente se recopilan los datos.
Por último, las analytics edge no reemplazan a las analytics centrales de datos. Ambas opciones pueden complementarse y se complementarán para ofrecer insights de datos. Anteriormente, aludimos al hecho de que hay ciertos escenarios en los que se prefiere el análisis de datos, y hay ciertos escenarios en los que el modelado de datos y analytics centrales es la mejor respuesta porque se acepta la latencia ya que se requiere análisis detallado. El objetivo principal del análisis de analytics es proporcionar insights empresariales en tiempo real (o lo más cerca posible del tiempo real).
El centro de arquitectura de IBM Cloud ofrece muchas arquitecturas de referencia híbridas y multinube, incluida la arquitectura de referencia de computación edge. También puede ver la arquitectura de referencia automotriz relacionada con el edge recientemente publicada.
Asegúrese de consultar todas las entregas de esta serie de entradas en el blog sobre computación edge y los recursos:
Gracias a David Booz por revisar el artículo y a Andy Gibbs por proporcionarnos la inspiración para el diagrama de arquitectura de bloques.
IBM Power es una familia de servidores que se basan en procesadores IBM Power y son capaces de ejecutar IBM AIX, IBM i y Linux.
Automatice las operaciones, mejore las experiencias y refuerce las medidas de seguridad con las soluciones de computación edge de IBM.
La consultoría de estrategia de la nube de IBM ofrece servicios de transformación híbrida multinube para acelerar el recorrido a la nube y optimizar los entornos tecnológicos.