¿Qué es un algoritmo de aprendizaje automático?
Comience su prueba gratuita de watsonx.ai
Una red neuronal

Un algoritmo de aprendizaje automático es un conjunto de reglas o procesos utilizados por un sistema de IA para realizar tareas, la mayoría de las veces para descubrir nuevos conocimientos y patrones de datos, o para predecir valores de salida a partir de un conjunto determinado de variables de entrada. Los algoritmos permiten que el aprendizaje automático (ML) aprenda.

Los analistas de la industria están de acuerdo en la importancia del aprendizaje automático y sus algoritmos subyacentes. Según Forrester, “Los avances en los algoritmos de aprendizaje automático aportan precisión y profundidad al análisis de datos de marketing que ayuda a los especialistas en marketing a comprender cómo los detalles de marketing, como la plataforma, la creatividad, la llamada a la acción o los mensajes, afectan el rendimiento de marketing.1” Si bien Gartner afirma que “el aprendizaje automático es el núcleo de muchas aplicaciones exitosas de IA, lo que alimenta su enorme tracción en el mercado.2

La mayoría de las veces, el entrenamiento de algoritmos de ML en más datos proporcionará respuestas más precisas que el entrenamiento con menos datos. Mediante el uso de métodos estadísticos, los algoritmos se entrenan para determinar clasificaciones o hacer predicciones, y para descubrir información clave en proyectos de minería de datos. Posteriormente, estos conocimientos pueden mejorar su toma de decisiones para impulsar las métricas clave de crecimiento.

Los casos de uso de algoritmos de aprendizaje automático incluyen la capacidad de analizar datos para identificar tendencias y predecir problemas antes de que ocurran.3 La IA más avanzada puede permitir un soporte más personalizado, reducir los tiempos de respuesta, proporcionar reconocimiento de voz y mejorar la satisfacción del cliente. Las industrias que se benefician particularmente de los algoritmos de aprendizaje automático para crear nuevo contenido a  partir de grandes cantidades de datos incluyen la administración de la cadena de suministro, el transporte y la logística, el comercio minorista y la fabricación4, todas ellas adoptando IA generativa, con su capacidad para automatizar tareas, mejorar la eficiencia y proporcionar información valiosa, inclusopara principiantes.

Ya disponible: watsonx

Multiplique la potencia de la IA para su empresa con la plataforma de datos e IA de nueva generación de IBM.

Contenido relacionado

Suscríbase al boletín de IBM

Aprendizaje profundo

El aprendizaje profundo es una aplicación específica de las funciones avanzadas que proporcionan los algoritmos de aprendizaje automático. La distinción está en cómo aprende cada algoritmo. Los modelos de aprendizaje automático "profundos" pueden usar sus conjuntos de datos etiquetados, también conocidos como aprendizaje supervisado, para informar su algoritmo, pero no necesariamente requieren datos etiquetados. El aprendizaje profundo puede ingerir datos no estructurados en su forma sin procesar (como texto o imágenes), y puede determinar automáticamente el conjunto de características que distinguen diferentes categorías de datos entre sí. Esto elimina parte de la intervención humana requerida y permite el uso de conjuntos de datos más grandes.

La forma más fácil de pensar sobre inteligencia artificial, aprendizaje automático, aprendizaje profundo y redes neuronales es pensarlas como una serie de sistemas de IA de mayor a menor, cada uno que abarque el siguiente. La inteligencia artificial (IA) es el sistema general. El aprendizaje automático es un subconjunto de la IA. El aprendizaje profundo es un subcampo del aprendizaje automático, y las redes neuronales constituyen la columna vertebral de los algoritmos de aprendizaje profundo. Es la cantidad de capas de nodos, o profundidad, de redes neuronales que distinguen una única red neural de un algoritmo de aprendizaje profundo, que debe tener más de tres.

Cómo funcionan los algoritmos de aprendizaje automático

Un documento de la UC Berkeley desglosa el sistema de aprendizaje de un algoritmo de aprendizaje automático en tres partes principales.5

  1. Un proceso de decisión: en general, los algoritmos de aprendizaje automático se utilizan para hacer una predicción o clasificación. Con base en algunos datos de entrada, que pueden estar etiquetados o no etiquetados, su algoritmo producirá una estimación sobre un patrón en los datos.

  2. Una función de error: una función de error evalúa la predicción del modelo. Si hay ejemplos conocidos, una función de error puede hacer una comparación para evaluar la precisión del modelo.

3.    Un proceso de optimización del modelo: si el modelo puede ajustarse mejor a los puntos de datos en el conjunto de entrenamiento, entonces los pesos se ajustan para reducir la discrepancia entre el ejemplo conocido y la estimación del modelo. El algoritmo repetirá este proceso de “evaluar y optimizar”, actualizando pesos de forma autónoma hasta que se haya cumplido un umbral de precisión.  

El aprendizaje supervisado en particular utiliza un conjunto de capacitación para enseñar modelos   a fin de producir el resultado deseado. Este conjunto de datos de entrenamiento incluye entradas y salidas correctas, lo que permite que el modelo aprenda con el tiempo. El algoritmo mide su precisión a través de la función de pérdida, ajustando hasta que el error se haya minimizado lo suficiente.

Tipos de algoritmos de aprendizaje automático

Hay cuatro tipos de algoritmos de aprendizaje automático: supervisados, no supervisados, semisupervisados y de refuerzo.  En función de su presupuesto, necesidad de velocidad y precisión requerida, cada tipo y variante tiene sus propias ventajas. Los algoritmos avanzados de aprendizaje automático requieren múltiples tecnologías, incluido el aprendizaje profundo, las redes neuronales y el procesamiento del lenguaje natural, y pueden utilizar tanto el aprendizaje supervisado como el no supervisado.6 Los siguientes son los algoritmos más populares y comúnmente utilizados.

Algoritmos de aprendizaje supervisado

En la minería de datos, el aprendizaje supervisado puede dividirse en dos tipos de problemas: clasificación y regresión.

  • La clasificación utiliza un algoritmo para asignar con precisión los datos de prueba en categorías específicas. Reconoce entidades específicas dentro del conjunto de datos e intenta sacar algunas conclusiones sobre cómo deben etiquetarse o definirse esas entidades. Los algoritmos de clasificación más comunes son los clasificadores lineales, las máquinas de vectores de soporte (SVM, por sus siglas en inglés), los árboles de decisión, el K vecino más próximo y el bosque aleatorio, que se describen con más detalle a continuación.
  • La regresión se utiliza para comprender la relación entre variables dependientes e independientes. Se utiliza comúnmente para hacer proyecciones, como los ingresos por ventas de un negocio determinado. La regresión lineal, la regresión logística y la regresión polinomial son algoritmos de regresión populares.

En los procesos de aprendizaje automático supervisado se utilizan diversos algoritmos y técnicas de cómputo, a menudo calculados mediante el uso de programas como Python. Los algoritmos de aprendizaje supervisado incluyen:

  • AdaBoost o potenciación de gradiente: también llamado impulso adaptativo7, esta técnica potencia un algoritmo de regresión de bajo rendimiento combinándolo con otros más débiles para crear un algoritmo más fuerte que da como resultado menos errores. Boosting combina el poder de pronóstico de varios estimadores base.
  • Redes neuronales artificiales: también conocidas como ANN, por sus siglas en inglés, redes neuronales o redes neuronales simuladas (SNN, por sus siglas en inglés), son un subconjunto de técnicas de aprendizaje automático y están en el corazón de los algoritmos de aprendizaje profundo. El algoritmo de aprendizaje reconoce patrones en los datos de entrada utilizando bloques de construcción llamados neuronas, que se aproximan a las neuronas del cerebro humano, que se entrenan y modifican con el tiempo. (Más en "redes neuronales").
  • Algoritmos de árbol de decisión: Utilizados tanto para predecir valores numéricos (problemas de regresión) como para clasificar datos en categorías, los árboles de decisión utilizan una secuencia ramificada de decisiones vinculadas que pueden representarse con un diagrama de árbol. Una de las ventajas de los árboles de decisión es que son fáciles de validar y auditar, a diferencia de la caja negra de una red neural.
  • Reducción de dimensionalidad: Cuando un conjunto de datos seleccionado tiene un gran número de entidades7 , tiene una alta dimensionalidad. A continuación, la reducción de la dimensionalidad reduce el número de características, dejando sólo las percepciones o la información más significativas. Un ejemplo es el análisis de componentes principales.
  • Vecino K más próximo: también conocido como KNN, este algoritmo no paramétrico clasifica los puntos de datos en función de su proximidad y asociación con otros datos disponibles. Asume que se pueden encontrar puntos de datos similares uno cerca del otro. Como resultado, busca calcular la distancia entre puntos de datos, generalmente a través de la distancia euclidiana, y luego asigna una categoría basada en la categoría o promedio más frecuente. 
  • Regresión lineal: La regresión lineal se utiliza para identificar la relación entre una variable dependiente y una o más variables independientes y, por lo general, se aprovecha para hacer predicciones sobre resultados futuros. Cuando solo hay una variable independiente y una variable dependiente, se conoce como regresión lineal simple.
  • Regresión logística: mientras que la regresión lineal se aprovecha cuando las variables dependientes son regresión logística continua cuando la variable dependiente es categórica, lo que significa que hay resultados binarios, como "verdadero" y "falso" o "sí" y "no". Si bien ambos modelos de regresión buscan comprender las relaciones entre las entradas de datos, la regresión logística se utiliza principalmente para resolver problemas de clasificación binaria, como la identificación de spam.
  • Redes neuronales: principalmente aprovechadas para algoritmos de aprendizaje profundo, las redes neuronales procesan los datos de capacitación de entrada imitando la interconectividad del cerebro humano a través de capas de nodos. Cada nodo se compone de entradas, ponderaciones, un sesgo (umbral) y una salida. Si ese valor de salida excede un umbral determinado, "dispara" o activa el nodo, pasa los datos a la siguiente capa de la red. Las redes neuronales aprenden de ajustes basados en la función de pérdida a través del proceso de descenso de gradiente. Cuando la función de coste es igual o cercana a cero, puede confiar en la precisión del modelo.
  • Clasificador bayesiano ingenuo: Este enfoque adopta el principio de independencia condicional de clase del teorema de Bayes. Esto significa que la presencia de una característica no afecta a la presencia de otra en la probabilidad de un resultado determinado, y cada predictor tiene el mismo efecto en ese resultado. Existen tres tipos de clasificadores bayesianos ingenuos: clasificador bayesiano ingenuo multinomial, clasificador bayesiano ingenuo Bernoulli y clasificador bayesiano ingenuo gaussiano. Esta técnica se utiliza principalmente en la clasificación de textos, la identificación de spam y los sistemas de recomendación.
  • Bosques aleatorios: en un bosque aleatorio, el algoritmo de aprendizaje automático predice un valor o categoría mediante la combinación de los resultados de varios árboles de decisión. El "bosque" se refiere a árboles de decisión no correlacionados, que se ensamblan para reducir la varianza y permitir predicciones más precisas.
  • Máquinas de vectores de soporte (SVM): este algoritmo se puede utilizar tanto para la clasificación de datos como para la regresión, pero normalmente para problemas de clasificación, construyendo un hiperplano donde la distancia entre dos clases de puntos de datos es máxima. Este hiperplano se conoce como límite de decisión y separa las clases de puntos de datos (como naranjas frente a manzanas) a cada lado del plano.
Algoritmos de aprendizaje no supervisados

A diferencia del aprendizaje supervisado, el aprendizaje no supervisado utiliza datos sin etiquetar. A partir de esos datos, el algoritmo descubre patrones que ayudan a resolver problemas de agrupamiento o asociación. Esto es particularmente útil cuando los expertos en la materia no están seguros de las propiedades comunes dentro de un conjunto de datos. Los algoritmos de agrupamiento comunes son jerárquicos, K-medias, modelos de mezclas gaussianas y Métodos de Reducción de Dimensionalidad como PCA y t-SNe.

  • Agrupación en clústeres: estos algoritmos pueden identificar patrones en los datos para que puedan agruparse. Los algoritmos pueden ayudar a los científicos de datos identificando diferencias entre los elementos de datos que los humanos han pasado por alto.
  • Agrupación jerárquica en clústeres: agrupa los datos en un árbol de clústeres8. La agrupación jerárquica comienza tratando cada punto de datos como un clúster independiente. A continuación, ejecuta repetidamente estos pasos 1) identifica los dos conglomerados que pueden estar más próximos entre sí, y 2) fusiona los dos conglomerados máximamente comparables. Estos pasos continúan hasta que todos los clústeres se fusionen.
  • K significa agrupación en clústeres: esto identifica grupos dentro de datos sin etiquetas9  en diferentes clústeres al encontrar grupos de datos similares entre sí. El nombre “K-medias” proviene de los centroides $k$ que utiliza para definir clústeres. Un punto se asigna a un clúster determinado si está más cerca del centroide de ese clúster que de cualquier otro centroide.

Algoritmos de  aprendizaje semisupervisado

En este caso, el aprendizaje se produce cuando solo se ha etiquetado una parte de los datos de entrada dados, lo que le da al algoritmo una cierta "ventaja inicial". Este enfoque puede combinar lo mejor de ambos mundos10: la precisión mejorada asociada con el aprendizaje automático supervisado y la capacidad de hacer uso de datos rentables sin etiquetar, como en el caso del aprendizaje automático no supervisado.

Algoritmos de refuerzo

En este caso, los algoritmos se entrenan tal como aprenden los humanos, a través de recompensas y penalizaciones, que son medidas y rastreadas por un agente de aprendizaje por refuerzo11 que tiene una comprensión general de la probabilidad de subir o bajar la puntuación con éxito. A través del ensayo y el error, el agente aprende a tomar medidas que conducen a los resultados más favorables con el tiempo. El aprendizaje de refuerzo a menudo se utiliza12  en la gestión de recursos, robótica y videojuegos.

Soluciones relacionadas
Aprendizaje profundo

Diseñe redes neuronales complejas. Experimente a escala para implementar modelos de aprendizaje optimizados dentro de IBM® Watson Studio.

Explore el aprendizaje profundo

Análisis predictivo

Analice datos y cree modelos analíticos y predictivos de resultados futuros. Descubra los riesgos y las oportunidades para su empresa.

Explore analíticas predictivas

Cree aplicaciones con procesamiento de lenguaje natural

PLN es la IA que habla el lenguaje de su negocio. Cree soluciones que generen un 383 % de retorno de la inversión en tres años con IBM® Watson Discovery.

Explore la creación de aplicaciones con PNL
Recursos Aprendizaje práctico y gratuito para tecnologías generativas de IA

Aprenda los conceptos fundamentales de la IA y la IA generativa, incluida la ingeniería de avisos, los grandes modelos lingüísticos y los mejores proyectos de código abierto.

Cuadrante Mágico para plataformas de IA conversacional empresarial, 2023

IBM fue nombrado líder en Gartner® Magic Quadrant™ 2023 en plataformas de IA conversacional empresariales.

Cuadrante Mágico de Gartner para plataformas de ciencia de datos y aprendizaje automático

Conozca las herramientas que utilizan las empresas para ejecutar y gestionar de forma eficiente los modelos de IA y capacitar a sus científicos de datos con tecnología que puede ayudar a optimizar su toma de decisiones basada en datos.

Aprendizaje automático para principiantes

Explore cómo el aprendizaje automático le permite aprender continuamente de los datos y predecir el futuro.

Cómo crear IA responsable a escala

Cuatro estrategias para escalar la IA con una base de datos sólida.

IA en la empresa, 2021: Liberar la oportunidad a través de datos

La tecnología de IA ha evolucionado rápidamente en las últimas dos décadas. Descubra cómo las empresas están implementando la IA en la actualidad.

Take the next step

Build an AI strategy for your business on one collaborative AI and data platform—IBM watsonx. Train, validate, tune and deploy AI models to help you scale and accelerate the impact of AI with trusted data across your business.

Explore watsonx Book a live demo
Notas de pie de página

Todos los enlaces a las notas a pie de página que aparecen a continuación residen fuera de IBM.

1 Forrester: Use Marketing Analytics To Support Your 2023 Marketing Strategy 

2 Gartner: What Is Artificial Intelligence?

3 Gartner Peer Community: How will AI help facilitate desk and IT support teams? 

4 IDC: Generative AI: Exploring Trends and Use Cases Across Asia/Pacific Supply Chains 

5 Berkeley School of information:  What Is Machine Learning (ML)?

6 Gartner Glossary: Machine Learning

7 TechTarget: What are machine learning algorithms?

8 GeeksforGeeks: Hierarchical Clustering in Data Mining

9 Stanford University: K Means

10 Booz Allen: How do machines learn?

11 G2: Reinforcement Learning: How Machines Learn From Their Mistakes 

12 TechTarget: What is machine learning and how does it work?