¿Qué es la inferencia de la IA?

Autores

Mesh Flinders

Staff Writer

IBM Think

Ian Smalley

Staff Editor

IBM Think

¿Qué es la inferencia de la IA?

La inferencia de la inteligencia artificial (IA) es la capacidad de los modelos de IA entrenados para reconocer patrones y sacar conclusiones a partir de información que no han visto antes.

La inferencia de la IA es crucial para el avance de las tecnologías en este campo y sustenta sus aplicaciones más interesantes, como la IA generativa, la capacidad que impulsa la popular aplicación ChatGPT . Los modelos de IA se basan en la inferencia de la misma para imitar la forma en que las personas piensan, razonan y responden a los prompts.

La inferencia de la IA comienza entrenando un modelo de IA en un gran conjunto de datos con algoritmos de toma de decisiones. Los modelos de IA consisten en algoritmos de toma de decisiones que se entrenan en redes neuronales, modelos de lenguaje de gran tamaño (LLM) que se construyen como un cerebro humano. Por ejemplo, un modelo de IA diseñado para el reconocimiento facial podría entrenarse con millones de imágenes del rostro humano. Con el tiempo, aprende a identificar con precisión características como el color de los ojos, la forma de la nariz y el color del cabello, y luego puede usarlas para reconocer a un individuo en una imagen.

La diferencia entre la inferencia de la IA y el machine learning

Aunque están estrechamente relacionados, la inferencia de la IA y el machine learning (ML) son dos pasos diferentes en el ciclo de vida del modelo de IA.

  • El machine learning es el proceso de utilizar algoritmos y datos de entrenamiento, a través del proceso de aprendizaje supervisado, para hacer que la IA imite la forma en que aprenden los humanos, mejorando gradualmente su precisión.

  • La inferencia de la IA es el proceso de aplicar lo que el modelo de IA ha aprendido a través del ML para decidir, predecir o extraer conclusiones a partir de los datos.

Las últimas tendencias en IA, presentadas por expertos

Obtenga conocimientos organizados sobre las noticias más importantes e intrigantes de la IA. Suscríbase a nuestro boletín semanal Think. Consulte la Declaración de privacidad de IBM.

¡Gracias! Está suscrito.

Su suscripción se enviará en inglés. Encontrará un enlace para darse de baja en cada boletín. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.

Beneficios de la inferencia de la IA

Si los modelos de IA no se entrenan en un conjunto de datos sólido y apropiado para su aplicación, simplemente no son efectivos. Dada la naturaleza sensible de la tecnología y el minucioso examen que recibe en la prensa1, las empresas deben ser cautelosas. Pero con aplicaciones que abarcan sectores y ofrecen el potencial de la transformación digital y la innovación escalable, sus beneficios son muchos:

  • Resultados precisos y exactos: los modelos de IA son cada vez más precisos y exactos a medida que avanza la tecnología. Por ejemplo, los LLM más nuevos pueden elegir palabras, oraciones y gramática para imitar el tono de un autor en particular. En el espacio del arte y el vídeo, pueden hacer lo mismo, seleccionando colores y estilos para transmitir un estado de ánimo, un tono o un estilo artístico precisos.
  • Mejora del control de calidad: una de las expansiones más recientes y potencialmente más emocionantes de la IA se encuentra en el campo de la monitorización y las inspecciones de sistemas. Se están utilizando modelos de IA entrenados en conjuntos de datos que van desde la calidad del agua hasta los patrones climáticos para monitorizar la salud de los equipos industriales en el campo.
  • Aprendizaje robótico: los robots y la robótica con capacidades de inferencia de la IA se están implementando para diversas tareas con el fin de añadir valor empresarial. Quizás la aplicación más popular del aprendizaje robótico sean los coches sin conductor. Las empresas de automóviles sin conductor como Tesla, Waymo y Cruz utilizan ampliamente la inferencia de la IA para enseñar a las redes neuronales a reconocer y obedecer las normas de tráfico.
  • Aprendizaje sin dirección: la inferencia de la IA se entrena con datos sin ser programada, lo que reduce la intervención humana y los recursos necesarios para funcionar de manera eficaz. Por ejemplo, un modelo de IA entrenado con imágenes de entornos agrícolas puede utilizarse para ayudar a los agricultores a identificar y mitigar las malas hierbas y los cultivos poco saludables.
  • Orientación y toma de decisiones informadas: una de las aplicaciones más interesantes de la inferencia de la IA es su capacidad para comprender los matices y la complejidad y ofrecer asesoramiento basado en los conjuntos de datos sobre los que ha aprendido. Por ejemplo, los modelos de IA entrenados en principios financieros pueden ofrecer un asesoramiento sólido en materia de inversiones e identificar actividades potencialmente fraudulentas. Del mismo modo, la IA puede eliminar el potencial de error humano de procedimientos arriesgados como el diagnóstico de una enfermedad o el pilotaje de un avión.
  • Capacidades de edge computing: la inferencia de la IA y el edge computing ofrecen todas los beneficios de la IA en tiempo real, sin necesidad de trasladar los datos a un centro de datos para procesarlos. El potencial de la inferencia de la IA en el edge tiene amplias repercusiones, desde la gestión y monitorización de los niveles de existencias en un almacén hasta las reacciones a la velocidad de milisegundos necesarias para el funcionamiento seguro de un vehículo autónomo.
AI Academy

Conviértase en un experto en IA

Obtenga los conocimientos necesarios para priorizar las inversiones en IA que impulsan el crecimiento empresarial. Dé sus primeros pasos hoy mismo con nuestra AI Academy gratuita y lidere el futuro de la IA en su organización.

Retos de la inferencia de la IA

Aunque las ventajas de la inferencia de la IA son muchas, al tratarse de una tecnología joven y de rápido crecimiento, tampoco está exenta de retos. He aquí algunos de los problemas a los que se enfrenta el sector y que las empresas que estén considerando invertir en IA deberían tener en cuenta:

  • Cumplimiento normativo:  la tarea de regular las aplicaciones y la inferencia de la IA es ardua y está en constante cambio. Un ejemplo de ello es el ámbito de la soberanía de los datos, el concepto de que los datos están sujetos a las leyes del país o región donde se han generado. Las empresas globales que recopilan, almacenan y procesan datos con fines de IA en más de un territorio se encuentran con el reto de seguir cumpliendo las leyes en varios territorios sin dejar de innovar de forma que beneficie a su negocio.
  • Calidad: en el entrenamiento de los modelos de IA, la calidad de los datos con los que se entrena a los modelos es crucial para su éxito. Al igual que los humanos que aprenden de un mal profesor, un modelo de IA entrenado en un mal conjunto de datos obtendrá malos resultados. Los conjuntos de datos deben estar claramente etiquetados y ser hiperrelevantes para la habilidad que el modelo de IA intenta aprender. Un reto clave de la IA (y especialmente de la precisión de la inferencia de la misma) es la selección del modelo adecuado con el que entrenarse.
  • Complejidad: al igual que con la calidad de los datos, la complejidad de estos también puede causar problemas con los modelos de IA. Volviendo a utilizar la analogía de un estudiante humano, cuanto más sencillo sea aquello para lo que se está entrenando a la IA, más fácil le resultará aprender. Los modelos de IA que abordan problemas sencillos, como un chatbot de atención al cliente o un agente de viajes virtual, son relativamente fáciles de entrenar en comparación con los modelos diseñados para problemas más complejos, como la obtención de imágenes médicas o el asesoramiento financiero.
  • Mejora de habilidades: por muy emocionante que pueda ser imaginar las posibilidades de un campo nuevo y en rápido crecimiento como la IA, los conocimientos necesarios para crear aplicaciones de IA que funcionen y una inferencia de la IA precisa requieren tiempo y recursos. Hasta que la cantera de talentos no se ponga al día con el ritmo de la innovación, los expertos en este campo seguirán estando muy solicitados y su contratación seguirá siendo cara.
  • Dependencia de Taiwán: el 60 % de los semiconductores del mundo y el 90 % de sus chips avanzados (incluidos los aceleradores de IA necesarios para la inferencia de la IA) se fabrican en la isla de Taiwán.2 Además, la mayor empresa de hardware y software de IA del mundo, Nvidia, depende casi exclusivamente de una sola empresa, la Taiwan Semiconductor Manufacturing Corporation (TSMC), para sus aceleradores de IA. Las catástrofes naturales u otros incidentes imprevistos podrían amenazar la fabricación y distribución de los chips necesarios para alimentar la inferencia de la IA y sus numerosas aplicaciones.

Componentes cruciales para la inferencia de la IA

La inferencia de la IA es un proceso complejo que implica entrenar un modelo de IA en conjuntos de datos apropiados hasta que pueda inferir respuestas precisas. Se trata de un proceso muy intensivo desde el punto de vista computacional, que requiere hardware y software especializados. Antes de examinar el proceso de entrenamiento de modelos de IA para la inferencia de la misma, exploremos parte del hardware especializado que lo permite:

Unidad central de procesamiento

La unidad central de procesamiento (CPU) es el principal componente funcional de un ordenador. En el entrenamiento y la inferencia de la IA, la CPU ejecuta el sistema operativo y ayuda a gestionar los recursos computacionales necesarios para el entrenamiento.

Unidad de procesamiento gráfico

Las unidades de procesamiento gráfico (GPU), o circuitos electrónicos creados para el procesamiento de imágenes y gráficos informáticos de alto rendimiento, se utilizan en diversos dispositivos, como tarjetas de vídeo, placas base y teléfonos móviles. Sin embargo, debido a su capacidad de procesamiento paralelo, también se utilizan cada vez más en el entrenamiento de modelos de IA. Uno de los métodos consiste en conectar muchas GPU a un único sistema de IA para aumentar la capacidad de procesamiento de dicho sistema.

Matrices de puerta programable en campo

Las matrices de puerta programable en campo (FPGA) son aceleradores de IA altamente personalizables que dependen de conocimientos especializados para ser reprogramados con un fin específico. A diferencia de otros aceleradores de IA, las FPGA tienen un diseño único que se adapta a una función específica, que a menudo tiene que ver con el procesamiento de datos en tiempo real, algo crucial para la inferencia de la IA. Las FPGA son reprogramables a nivel de hardware, lo que permite un mayor nivel de personalización.

Circuitos integrados para aplicaciones específicas

Los ASIC son aceleradores de IA diseñados con un propósito o una carga de trabajo específicos, como el deep learning en el caso del acelerador WSE-3 ASICs producido por Cerebras. Los ASIC ayudan a los científicos de datos a acelerar las capacidades de inferencia de la IA y a reducir el coste. A diferencia de las FPGA, los ASIC no pueden reprogramarse, pero como se fabrican con un propósito singular, suelen superar a otros aceleradores de uso más general. Un ejemplo de ellos es la unidad de procesamiento tensorial (TPU) de Google, desarrollada para el machine learning de redes neuronales mediante el software TensorFlow propio de Google.

Cómo funciona la inferencia de la IA

Las empresas interesadas en invertir en aplicaciones de IA como parte de su viaje de transformación digital deben informarse sobre los beneficios y los retos de la inferencia de la IA. Para quienes hayan investigado a fondo sus diversas aplicaciones y estén listos para ponerla en práctica, he aquí cinco pasos para establecer una inferencia de la IA eficaz:

Prepare los datos

La preparación de los datos es crucial para crear modelos y aplicaciones de IA eficaces. Las empresas pueden crear conjuntos de datos para que los modelos de IA se entrenen utilizando datos de dentro de su organización o de fuera de ella. Para obtener resultados óptimos, es típico utilizar una combinación de ambos. Otra parte clave del ensamblaje de los datos con los que se entrenará su IA es la limpieza de los datos: la eliminación de cualquier entrada duplicada y la resolución de cualquier problema de formato.

Elija un modelo de entrenamiento

Una vez reunido el conjunto de datos, el siguiente paso es la selección del modelo de IA adecuado para su aplicación. Los modelos vienen en una gama que va de lo simple a lo complejo, siendo los más complejos capaces de acomodar más entradas e inferir a un nivel más sutil que los menos complejos. Durante este paso, es importante tener claras sus necesidades, ya que entrenar modelos más complejos puede requerir más tiempo, dinero y otros recursos que entrenar modelos más sencillos.

Entrene su modelo

Para obtener los resultados deseados de una aplicación de IA, las empresas necesitarán normalmente pasar por muchas y rigurosas rondas de entrenamiento de la IA. A medida que los modelos se entrenan, la precisión de sus inferencias será cada vez mayor y la cantidad de recursos informáticos necesarios para llegar a esas inferencias, como la potencia de cálculo y la latencia, disminuirá. A medida que el modelo madura, pasa a una nueva fase en la que puede empezar a hacer inferencias sobre nuevos datos a partir de los datos sobre los que ha aprendido. Este es un paso interesante porque puede ver cómo su modelo empieza a funcionar de la forma para la que fue diseñado.

Monitorice el output

Antes de que su modelo se considere operativo, es importante que compruebe y monitorice sus outputs en busca de imprecisiones, sesgos o problemas de privacidad de datos . El posprocesamiento, como a veces se denomina a esta fase, es donde usted crea un proceso paso a paso para garantizar la precisión de su modelo. La fase de posprocesamiento es el momento de crear una metodología que garantice que su IA le está dando las respuestas que desea y funcionando de la forma prevista.

Implementación

Tras unos rigurosos procesos de monitorización y posprocesamiento, su modelo de IA está listo para ser implementado para su uso empresarial. Este último paso incluye la implementación de la arquitectura y los sistemas de datos que permitirán que su modelo de IA funcione, así como la creación de cualquier procedimiento de gestión de cambios para educar a las partes interesadas sobre cómo utilizar su aplicación de IA en sus funciones cotidianas.

Tipos de inferencia de la IA

Dependiendo del tipo de aplicación de IA que necesiten las empresas, hay diferentes tipos de inferencia de la misma entre los que pueden elegir. Si una empresa busca crear un modelo de IA para utilizarlo con una aplicación del Internet de las cosas (IoT), la inferencia de streaming (con sus capacidades de medición) es probablemente la opción más adecuada. Sin embargo, si un modelo de IA está diseñado para interactuar con humanos, la inferencia en línea (con sus capacidades de LLM) encajaría mejor. Estos son los tres tipos de inferencia de la IA y las características que los hacen únicos.

1. Inferencia dinámica

La inferencia dinámica, también conocida como inferencia en línea, es el tipo más rápido de inferencia de la IA y se utiliza en las aplicaciones de IA de LLM más populares, como ChatGPT de OpenAI. La inferencia dinámica genera outputs y predicciones en el instante en que se solicitan y, después, requiere una baja latencia y un acceso rápido a los datos para funcionar. Otra característica de la inferencia dinámica es que los outputs pueden llegar tan rápido que no hay tiempo para revisarlos antes de que lleguen a un usuario final. Esto hace que algunas empresas añadan una capa de monitorización entre el output y el usuario final para garantizar el control de calidad.

2. Inferencia por lotes

La inferencia por lotes genera predicciones de IA sin conexión utilizando grandes lotes de datos. Con un enfoque de inferencia por lotes, los datos que se han recopilado previamente se aplican a los algoritmos de ML. Aunque no es ideal para situaciones en las que se requieren outputs en unos segundos o menos, la inferencia por lotes es una buena opción para las predicciones de la IA que se actualizan regularmente a lo largo del día o en el transcurso de una semana, como los paneles de control de ventas o marketing o las evaluaciones de riesgos.

3. Inferencia de streaming

La inferencia de streaming utiliza un pipeline de datos, normalmente suministrado a través de mediciones regulares de sensores, y lo introduce en un algoritmo que utiliza los datos para realizar continuamente cálculos y predicciones. Las aplicaciones IoT, como la IA utilizada para monitorizar una central eléctrica o el tráfico de una ciudad a través de sensores conectados a internet, se basan en la inferencia de streaming para tomar sus decisiones.

Soluciones relacionadas
IBM watsonx.ai

Entrene, valide, ajuste e implemente IA generativa, modelos fundacionales y capacidades de machine learning con IBM watsonx.ai, un estudio empresarial de nueva generación para desarrolladores de IA. Cree aplicaciones de IA en menos tiempo y con menos datos.

Descubra watsonx.ai
Soluciones de inteligencia artificial

Ponga la IA a trabajar en su negocio con la experiencia líder en IA del sector de IBM y junto a su cartera de soluciones.

Explore las soluciones de IA
Consultoría y servicios de IA

Reinvente las operaciones y flujos de trabajo críticos añadiendo IA para maximizar las experiencias, la toma de decisiones en tiempo real y el valor empresarial.

Explore los servicios de IA
Dé el siguiente paso

Obtenga acceso único a capacidades que abarcan el ciclo de vida de desarrollo de la IA. Produzca potentes soluciones de IA con interfaces intuitivas, flujos de trabajo y acceso a API y SDK estándar del sector.

Explore watsonx.ai Solicite una demostración en directo
Notas a pie de página