¿Qué es la inferencia de IA?

Autores

Mesh Flinders

Staff Writer

IBM Think

Ian Smalley

Staff Editor

IBM Think

¿Qué es la inferencia de IA?

La inferencia de inteligencia artificial (IA) es la capacidad de los modelos de IA entrenados para reconocer patrones y sacar conclusiones de información que no vieron antes.

La inferencia de IA es fundamental para el avance de las tecnologías de IA y sustenta sus aplicaciones más interesantes, como la IA generativa, la capacidad que impulsa la popular aplicación ChatGPT . Los modelos de IA se basan en la inferencia de IA para imitar la forma en que las personas piensan, razonan y responden a las indicaciones.

La inferencia de IA comienza con el entrenamiento de un modelo de IA en un gran conjunto de datos con algoritmos de toma de decisiones. Los modelos de IA consisten en algoritmos de toma de decisiones que se entrenan en neural networks:modelos de lenguaje grandes (LLM) que se construyen como un cerebro humano. Por ejemplo, un modelo de IA diseñado para el reconocimiento facial puede entrenarse con millones de imágenes del rostro humano. Con el tiempo, aprende a identificar con precisión rasgos como el color de los ojos, la forma de la nariz y el color del cabello, y puede emplearlos para reconocer a un individuo en una imagen.

La diferencia entre la inferencia de IA y el aprendizaje automático

Aunque están estrechamente relacionados, la inferencia de IA y el machine learning (ML) son dos pasos diferentes en el ciclo de vida del modelo de IA.

  • El machine learning es el proceso de usar datos y algoritmos de entrenamiento, a través del proceso de aprendizaje supervisado, para permitir que la IA imite la forma en que aprenden los humanos, mejorando gradualmente su precisión.

  • La inferencia de IA es el proceso de aplicar lo que el modelo de IA aprendió a través del ML para decidir, predecir o concluir a partir de los datos.

Las últimas tendencias de IA presentadas por expertos

Obtenga insights curados sobre las noticias más importantes e intrigantes de la IA. Suscríbase a nuestro boletín semanal Think. Consulte la Declaración de privacidad de IBM .

¡Gracias! Ya está suscrito.

Su suscripción se entregará en inglés. En cada boletín, encontrará un enlace para darse de baja. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.

Beneficios de la inferencia de IA

Si los modelos de IA no se capacitan con un conjunto de datos estable y adecuado para su aplicación, sencillamente no son eficaces. Dado el carácter sensible de la tecnología y lo mucho que se analiza en laprensa1, las compañías deben ser prudentes. Pero con aplicaciones que abarcan industrias y ofrecen el potencial de transformación digital e innovación escalable, sus beneficios son muchos:

  • Resultados precisos y exactos: Losmodelos de IA son cada vez más precisos y exactos a medida que avanza la tecnología. Por ejemplo, los LLM más nuevos pueden elegir palabras, oraciones y gramática de manera que imiten el tono de un autor en particular. En el espacio de arte y video, pueden hacer lo mismo, seleccionando colores y estilos para transmitir un estado de ánimo preciso, tono o estilo artístico.
  • Control de calidad mejorado: una de las expansiones más nuevas y potencialmente más interesantes de la IA se encuentra en el campo de la supervisión y las inspecciones de sistemas. Los modelos de IA que se capacitan con conjuntos de datos que van desde la calidad del agua hasta los patrones climáticos se emplean para monitorear el estado de los equipos industriales en el campo.
  • Aprendizaje robótico: Los robots y la robótica con capacidades de inferencia de IA se están desplegando para diversas tareas con el fin de agregar valor empresarial. Quizá la aplicación más popular del aprendizaje robótico sean los autos sin conductor. La inferencia de IA es ampliamente empleada por compañías de automóvil sin conductor como Tesla, Waymo y Cruz para enseñar a neural networks a reconocer y obedecer las normas de tráfico.
  • Aprendizaje sin dirección: la inferencia de IA se capacita con datos sin ser programada, lo que reduce la entrada humana y los recursos necesarios para funcionar de manera efectiva. Por ejemplo, un modelo de IA capacitado con imágenes de entornos agrícolas puede emplearse para ayudar a los agricultores a identificar y mitigar las malas hierbas y los cultivos poco saludables.
  • Orientación y toma de decisiones fundamentadas: una de las aplicaciones más interesantes de la inferencia de IA es la capacidad de la IA para comprender los matices y la complejidad y ofrecer consejos basados en los conjuntos de datos sobre los que se aprende. Por ejemplo, los modelos de IA capacitados en principios financieros pueden ofrecer buenos consejos de inversión e identificar actividades potencialmente fraudulentas. Del mismo modo, la IA puede eliminar el potencial de error humano de procedimientos riesgosos como el diagnóstico de una enfermedad o el pilotaje de una aeronave.
  • Capacidades de computación perimetral: la inferencia de IA y la computación perimetral ofrecen todos los beneficios de la IA en tiempo real, sin la necesidad de mover los datos a un centro de datos para procesarlos. El potencial de la inferencia de la IA en el borde tiene repercusiones de amplio alcance, desde la gestión y el monitoreo de los niveles de existencias en un almacén hasta las reacciones en cuestión de milisegundos necesarias para el funcionamiento seguro de un vehículo autónomo.
AI Academy

Conviértase en un experto en IA

Obtenga el conocimiento para priorizar las inversiones en IA que impulsan el crecimiento del negocio. Comience hoy mismo con nuestra AI Academy gratuita y lidere el futuro de la IA en su organización.

Desafíos de la inferencia de IA

Si bien los beneficios de la inferencia de IA son muchos, al ser una tecnología joven y de rápido crecimiento, también tiene sus desafíos. Estos son algunos de los problemas que enfrenta la industria y que las compañías que estén considerando invertir en IA deberían tener en cuenta:

  • Cumplimiento: la tarea de regular las aplicaciones y la inferencia de IA es ardua y cambia constantemente. Un ejemplo de esto es el área de la soberanía de datos, el concepto de que los datos están sujetos a las leyes del país o región donde se generaron. A las compañías globales que recopilan, almacenan y procesan datos para fines de IA en más de un territorio les resulta difícil cumplir con las leyes en múltiples territorios y, al mismo tiempo, innovar de manera que beneficie a su negocio.
  • Calidad: en el entrenamiento de modelos de IA, la calidad de los datos con los que se capacitan los modelos es fundamental para su éxito. Al igual que los humanos que aprenden de un profesor deficiente, un modelo de IA capacitado con un conjunto de datos incorrecto tendrá un rendimiento deficiente. Los conjuntos de datos deben etiquetarse claramente y ser hiperrelevantes para la habilidad que el modelo de IA está tratando de aprender. Un desafío clave de la IA (y especialmente de la precisión de la inferencia de la IA) es la selección del modelo adecuado para capacitarse.
  • Complejidad: Al igual que con la calidad de los datos, la complejidad de los datos también puede causar problemas con los modelos de IA. Al usar nuevamente la analogía de un estudiante humano, cuanto más simple sea para lo que se está entrenando la IA, más fácil es aprender. Los modelos de IA que afrontan problemas simples, como un chatbot de servicio al cliente o un agente de viajes virtual, son relativamente fáciles de entrenar en comparación con los modelos diseñados para problemas más complejos, como imágenes médicas o asesoramiento financiero.
  • Perfeccionamiento: Por muy emocionante que pueda ser imaginar las posibilidades de un campo nuevo y en rápido crecimiento como la IA, los conocimientos necesarios para crear aplicaciones de IA que funcionen y una inferencia de IA precisa requieren tiempo y recursos. Hasta que las fuentes de talento no alcancen el ritmo de la innovación, los expertos en este campo seguirán estando muy solicitados y su contratación seguirá siendo costosa.
  • Confianza en Taiwán: el60% de los semiconductores del mundo y el 90% de sus chips avanzados (incluidos los aceleradores de IA necesarios para la inferencia de IA) se fabrican en la isla de Taiwán.2 Además, la compañía de hardware y software de IA más grande del mundo, Nvidia, depende casi exclusivamente de una sola compañía, Taiwan Semiconductor Manufacturing Corporation (TSMC), para sus aceleradores de IA. Los desastres naturales u otros incidentes invisibles pueden amenazar la fabricación y distribución de los chips necesarios para impulsar la inferencia de IA y sus muchas aplicaciones.

Componentes críticos para la inferencia de IA

La inferencia de IA es un proceso complejo que implica capacitar un modelo de IA en conjuntos de datos apropiados hasta que pueda inferir respuestas precisas. Este es un proceso altamente intensivo en computación, que requiere hardware y software especializado. Antes de analizar el proceso de entrenamiento de modelos de IA para la inferencia de IA, exploremos algunos de los hardware especializados que lo permiten:

Unidad central de procesamiento

La unidad central de procesamiento (CPU) es el componente funcional principal de una computadora. En el entrenamiento y la inferencia de IA, la CPU ejecuta el sistema operativo y ayuda a gestionar los recursos informáticos necesarios para el entrenamiento.

Unidad de procesamiento gráfico

Las unidades de procesamiento gráfico (GPU), o circuitos electrónicos creados para gráficos por computadora de alto rendimiento y procesamiento de imágenes, se emplean en varios dispositivos, incluidas tarjetas de video, placas base y teléfonos móviles. Sin embargo, debido a sus capacidades de procesamiento paralelo, también se emplean cada vez más en el entrenamiento de modelos de IA. Un método es conectar muchas GPU a un solo sistema de IA para aumentar la potencia de procesamiento de ese sistema.

Matrices de puertas programables en campo

Matrices de puertas programables en campo (FPGA) Son aceleradores de IA altamente personalizables que dependen de conocimientos especializados para ser reprogramados para un propósito específico. A diferencia de otros aceleradores de IA, los FPGA tienen un diseño único que se adapta a una función específica, a menudo teniendo que ver con el procesamiento de datos en tiempo real, lo cual es crítico para la inferencia de IA. Los FPGA son reprogramables a nivel de hardware, lo que permite un mayor nivel de personalización.

Circuitos integrados específicos de la aplicación

Los ASIC son aceleradores de IA diseñados con un propósito o carga de trabajo específicos en mente, como el aprendizaje profundo en el caso del acelerador WSE-3 ASIC producido por Cerebras. Los ASIC ayudan a los científicos de datos a acelerar las capacidades de inferencia de IA y reducir el costo. A diferencia de los FPGA, los ASIC no se pueden reprogramar, pero, dado que se construyen con un propósito singular, suelen superar a otros aceleradores de uso más general. Un ejemplo de estos es la Unidad de procesamiento de tensores (TPU) de Google, desarrollada para el aprendizaje automático de Neural Networks que utiliza el propio software TensorFlow de Google.

Cómo funciona la inferencia de IA

Las compañías interesadas en invertir en aplicaciones de IA como parte de su viaje de transformación digital deben informar sobre los beneficios y desafíos de la inferencia de IA. Para aquellos que investigaron a fondo sus diversas aplicaciones y están listos para ponerlo en práctica, aquí hay cinco pasos para establecer una inferencia de IA efectiva:

Preparar datos

La preparación de los datos es fundamental para crear modelos y aplicaciones de IA eficaces. Las compañías pueden crear conjuntos de datos para que los modelos de IA se capaciten sobre el uso de datos dentro o fuera de su organización. Para obtener resultados óptimos, es habitual emplear una combinación de ambos. Otra parte clave del ensamblaje de datos en los que se capacitará su IA es la limpieza de datos: la eliminación de cualquier entrada duplicada y la resolución de cualquier problema de formato.

Elija un modelo de entrenamiento

Una vez que se reunió un conjunto de datos, el siguiente paso es la selección del modelo de IA adecuado para su aplicación. Los modelos vienen en un rango de simple a complejo, y los más complejos pueden acomodar más entradas e inferir a un nivel más sutil que los menos complejos. Durante este paso, es importante tener claras sus necesidades, ya que el entrenamiento de modelos más complejos puede requerir más tiempo, dinero y otros recursos que el entrenamiento de modelos más simples.

Capacite a su modelo

Para obtener los resultados buscados de una aplicación de IA, las empresas generalmente tendrán que pasar por muchas y rigurosas rondas de capacitación de IA. A medida que los modelos se entrenan, la precisión de sus inferencias se hará más nítida y la cantidad de recursos de cómputo necesarios para alcanzar esas inferencias, como la potencia de cómputo y la latencia, disminuirá. A medida que el modelo madura, pasa a una nueva fase donde puede comenzar a hacer inferencias sobre nuevos datos a partir de los datos sobre los que se aprende. Este es un paso emocionante porque puede ver que su modelo comienza a operar de la manera en que fue diseñado.

Resultados del monitor

Antes de que su modelo se considere operativo, es importante que verifique y supervise sus resultados en busca de imprecisiones, sesgos o problemas de privacidad de datos . El posprocesamiento, como a veces se denomina esta fase, es donde se crea un proceso paso a paso para garantizar la precisión de su modelo. La fase de posprocesamiento es el momento de crear una metodología que garantice que su IA le dé las respuestas que desea y funcione de la manera prevista.

Despliegue

Luego de un riguroso monitoreo y posprocesamiento, su modelo de IA está listo para desplegarse para uso empresarial. Este último paso incluye la implementación de la arquitectura y los sistemas de datos que permitirán que su modelo de IA funcione, así como la creación de cualquier procedimiento de gestión de cambios para educar a las partes interesadas sobre cómo usar su aplicación de IA en sus funciones diarias.

Tipos de inferencia de IA

Dependiendo del tipo de aplicación de IA que requieran las compañías, hay diferentes tipos de inferencia de IA entre los que pueden elegir. Si una compañía busca crear un modelo de IA para emplearlo con una aplicación de Internet of Things (IoT) , la inferencia de transmisión (con sus capacidades de medición) es probablemente la opción más adecuada. Sin embargo, si un modelo de IA está diseñado para interactuar con humanos, la inferencia en línea (con sus capacidades de LLM) sería una mejor opción. Estos son los tres tipos de inferencia de IA y las características que los hacen únicos.

1. Inferencia dinámica

La inferencia dinámica, también conocida como inferencia en línea, es el tipo más rápido de inferencia de IA y se emplea en las aplicaciones de IA LLM más populares, como ChatGPT de OpenAI. La inferencia dinámica produce resultados y predicciones en el instante en que se solicita y, después, requiere baja latencia y acceso rápido a los datos para funcionar. Otra característica de la inferencia dinámica es que los resultados pueden llegar tan rápido que no hay tiempo para revisarlos antes de que lleguen a un usuario final. Esto hace que algunas compañías agreguen una capa de monitoreo entre la salida y el usuario final para garantizar el control de calidad.

2. Inferencia por lotes

La inferencia por lotes genera predicciones de IA sin conexión mediante el uso de grandes lotes de datos. Con un enfoque de inferencia por lotes, los datos que se recopilaron previamente se aplican a los algoritmos de ML. Si bien no es ideal para situaciones en las que se requieren resultados en unos segundos o menos, la inferencia por lotes es una buena opción para las predicciones de IA que se actualizan de manera regular a lo largo del día o en el transcurso de una semana, como paneles de ventas, marketing o evaluaciones de riesgos.

3. Inferencia de streaming

La inferencia de streaming emplea un flujo de datos, normalmente suministrados a través de mediciones periódicas de sensores, y los introduce en un algoritmo que emplea los datos para realizar continuamente cálculos y predicciones. Las aplicaciones IoT, como la IA empleada para monitorear una central eléctrica o el tráfico de una ciudad a través de sensores conectados a Internet, se basan en la inferencia de secuencias para tomar sus decisiones.

Soluciones relacionadas
IBM watsonx.ai

Entrene, valide, ajuste y despliegue IA generativa, modelos fundacionales y capacidades de machine learning con IBM watsonx.ai, un estudio empresarial de próxima generación para creadores de IA. Diseñe aplicaciones de IA en menos tiempo y con menos datos.

Descubra watsonx.ai
Soluciones de inteligencia artificial

Ponga la IA a trabajar en su negocio con la experiencia en IA líder en la industria y la cartera de soluciones de IBM a su lado.

Explore las soluciones de IA
Consultoría y servicios de IA

Reinvente los flujos de trabajo y las operaciones críticas añadiendo IA para maximizar las experiencias, la toma de decisiones en tiempo real y el valor empresarial.

Conozca los servicios de IA
Dé el siguiente paso

Obtenga acceso único a capacidades que abarcan el ciclo de vida del desarrollo de IA. Produzca potentes soluciones de IA con interfaces fáciles de usar, flujos de trabajo y acceso a API y SDK estándar de la industria.

Explore watsonx.ai Reserve una demostración en vivo
Notas de pie de página