Esta es la octava entrega de una serie de blogs sobre edge computing, y en una de las publicaciones anteriores, hablamos sobre el modelado de machine learning en el edge. En él, mencionamos cómo se crearon e implementaron modelos de ML (machine learning) en los nodos edge. Pero, ¿qué pasa con las transmisiones de vídeo y otros datos no estructurados que generan todos esos dispositivos de tipo Internet de las cosas (IoT)? ¿Se pueden analizar todos esos datos y obtener resultados en tiempo real? ¿Cómo se hace? Si no se pueden analizar en el edge en tiempo real, ¿adónde se envían esos datos, cuál es el formato de esos datos y con qué rapidez se pueden analizar? Por último, ¿es necesario almacenar esos datos y, en caso afirmativo, dónde se almacenan y por qué? Esta entrada de blog intenta responder a esas preguntas. Algunos lo llaman "edge analytics" o "IA en el edge".
Asegúrese de consultar todas las entregas de esta serie de entradas de blog sobre edge computing:
Boletín del sector
Manténgase al día sobre las tendencias más importantes e intrigantes del sector en materia de IA, automatización, datos y mucho más con el boletín Think. Consulte la Declaración de privacidad de IBM.
Su suscripción se enviará en inglés. Encontrará un enlace para darse de baja en cada boletín. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.
La definición de edge analytics es simplemente el proceso de recopilar, analizar y crear conocimientos que se pueden ejecutar en tiempo real, directamente desde los dispositivos IoT que generan los datos. Algunos podrían argumentar que esto es edge computing; en realidad, edge analytics lleva las cosas al siguiente nivel, en el que se capturan más datos y se realizan análisis complejos antes de tomar medidas rápidas. El edge computing es similar a la construcción si/entonces en la programación de software; edge analytics adopta el enfoque what if.
Los puristas de la inteligencia artificial (IA) dirían que el edge analytics se ocupa de la predicción (inferencia), es decir, aplicar el conocimiento de un modelo de red neuronal entrenado y utilizarlo para inferir un resultado.
El hecho es que la generación de datos está superando la capacidad de la red. Por lo tanto, tenemos que ser inteligentes sobre qué datos analizar, qué datos enviar a la nube para su almacenamiento y, lo que es más importante, dónde deben analizarse los datos. Aunque la respuesta más sencilla a estas preguntas es "depende", existen razones y recomendaciones empresariales y técnicas.
Dos factores dictan esa respuesta: lo crítico que es analizar los datos en tiempo real y si es necesario realizar análisis adicionales con esos datos. Luego, está el requisito de almacenamiento (o no) para cumplir con los requisitos de cumplimiento empresarial y jurisdiccional.
Algunos dicen que la nube no es un buen lugar para el análisis en tiempo real. Por lo tanto, enviar todos los datos a la nube no es la respuesta porque la mayoría de los datos almacenados en la nube nunca se analizan. Termina en alguna base de datos o contenedor de bits, y simplemente permanece allí.
Tomando el ejemplo de una cámara remota capturando vídeo, algunos de los pros y contras del análisis en el edge frente al análisis en el servidor se capturan en la siguiente tabla:
La conciencia situacional es la percepción de los elementos y eventos ambientales con respecto al tiempo o al espacio, la comprensión de su significado y la proyección de su estado futuro. Esa definición está tomada de Wikipedia y los tres niveles de conciencia situacional se muestran en el gráfico a continuación. Dado que el tiempo es el aspecto más importante en la conciencia de la situación, por extensión, podemos decir que el tiempo es una fuerza impulsora para el análisis, especialmente el análisis en el edge:
Figura 1: tres niveles de conciencia situacional.
Los eventos en el edge implicarían analizar lo que ve la cámara o lo que detecta el sensor en tiempo real para poder tomar decisiones rápidamente y tomar medidas inmediatas. Cuando dos coches están en una trayectoria de colisión, no hay tiempo para enviar la información a la nube o notificar a alguien; se pueden prever las consecuencias de permanecer en la ruta actual y se puede evitar una colisión tomando medidas inmediatas. Cuando la cámara inteligente que observa a un robot de pintura en una planta de fabricación de automóviles ve que se aplica una cantidad incorrecta de pintura en una pieza de la carrocería, es necesario tomar medidas correctivas. Todo esto solo es posible con modelos prediseñados implementados en dichos dispositivos o sistemas.
Pero, ¿qué pasa con las situaciones nuevas o no previstas hasta ahora? En las zonas de construcción, las cámaras pueden entrenarse para detectar a alguien que no lleve casco y hacer sonar una alarma o avisar al supervisor de la obra. Los sensores de entrada pueden detectar si las personas llevan una placa o llevan armas, etc. En un desastre natural como una pandemia, nos gustaría que esos mismos dispositivos detectaran artículos relacionados con la salud, como mascarillas, guantes, etc.
Habría que mejorar los modelos existentes o implementar nuevos modelos de machine learning (ML) para que esos dispositivos periféricos detectaran y analizaran tales situaciones y tomaran las medidas necesarias. La acción resultante es programable y depende de la situación específica. Se podrían activar alarmas, notificar al personal adecuado o prohibir la entrada a las personas. Ese es el poder de edge analytics.
Emitir una alerta cuando un dispositivo alcanza un determinado umbral es bastante sencillo, pero el verdadero valor radica en producir un análisis visual de múltiples variables de datos en tiempo real y encontrar un significado predictivo en el flujo de datos. Esto puede ayudar a las empresas a identificar posibles valores atípicos o problemas que necesitan profundizar y realizar análisis adicionales.
El edge analytics no siempre es visual: hay muchas otras facetas que producen datos, como el análisis de golpes y vibraciones, la detección de ruido, la detección de temperatura, los manómetros, los caudalímetros y el análisis de audio y tono. Los sistemas de prevención de colisiones en los automóviles lo hacen con sensores y no con cámaras. Si bien las aplicaciones de edge analytics tienen que funcionar en dispositivos edge que pueden tener restricciones de memoria, potencia de procesamiento o comunicación, estos dispositivos se conectarían a un edge servidor/puerta de enlace donde se ejecuten las aplicaciones en contenedores.
Se utilizan diferentes protocolos para transmitir datos desde los dispositivos al servidor o puerta de enlace (normalmente conocida como la primera milla). Estos son algunos de los protocolos comunes, pero no es un conjunto completo:
La pila de software variará según el caso de uso de un sector en particular, pero en términos generales, las topologías de edge analytics suelen implicar una combinación de productos. En el edge más alejado, habría dispositivos visuales, de audio o sensoriales, algunos de los cuales son capaces de ejecutar un modelo de inferencia en contenedores. Enviarían datos a un servidor de inferencia, posiblemente ejecutando IBM Visual Insights e IBM Edge Application Manager. Los datos no visuales se enviarían a una red troncal de eventos utilizando IBM Event Streams o Apache Kafka. Y productos de software como IBM Watson que entrenan modelos, además de middleware como IBM Cloud Pak for Data e IA podrían agregar, limpiar y analizar datos en la siguiente capa.
Tenga en cuenta el gráfico de conciencia situacional que se muestra arriba; desde la percepción hasta la acción, el edge analytics tiene que operar en tiempo real. El diagrama de arquitectura de bloques muestra varios componentes en juego, con tiempos de latencia mostrados en milisegundos entre las diferentes capas:
Figura 2: Arquitectura de componentes de edge analytics.
Resulta que los humanos estamos muy afinados y, a nivel cognitivo, operamos en el rango de milisegundos (y a veces en microsegundos). Por lo tanto, las respuestas y decisiones de las máquinas y los dispositivos deben acercarse a eso y no tardar 100 o 500 milisegundos en enviar datos a la nube.
Uno de los requisitos clave del edge analytics es mejorar las experiencias informáticas reduciendo la latencia de las respuestas. El otro aspecto es la escalabilidad. El número cada vez mayor de sensores y dispositivos de red generará cada vez más datos. Eso aumentará la presión sobre los recursos centrales de análisis de datos. Edge analytics permite a las organizaciones escalar sus capacidades de procesamiento y análisis descentralizando a las ubicaciones donde realmente se recopilan los datos.
Por último, el edge analytics no sustituye al análisis central de datos. Ambas opciones pueden complementarse y se complementarán para ofrecer información sobre los datos. Antes hemos aludido al hecho de que hay ciertos escenarios en los que se prefiere el edge analytics, y hay ciertos escenarios en los que el modelado de datos y análisis es la mejor respuesta porque se acepta la latencia ya que se requiere análisis. El objetivo principal de edge analytics es proporcionar conocimiento empresarial en tiempo real (o lo más cercano posible al tiempo real).
El centro de arquitectura de IBM Cloud ofrece muchas arquitecturas de referencia híbridas y multinube, incluida la arquitectura de referencia de edge computing. También puede ver la arquitectura de referencia de automoción relacionada con el edge, recientemente publicada.
Asegúrese de consultar todas las entregas de esta serie de entradas de blog sobre edge computing y los recursos adicionales:
Gracias a David Booz por revisar el artículo y a Andy Gibbs por proporcionarnos la inspiración para el diagrama de arquitectura de bloques.
IBM Power es una familia de servidores que se basan en procesadores IBM Power y son capaces de ejecutar IBM AIX, IBM i y Linux.
Automatice las operaciones, mejore las experiencias y refuerce las medidas de seguridad con las soluciones de edge computing de IBM.
La consultoría de estrategia de la nube de IBM ofrece servicios de transformación híbrida multinube para acelerar el viaje a la nube y optimizar los entornos tecnológicos.