¿Qué es machine learning?
Conozca la historia del machine learning, además de definiciones importantes, sus aplicaciones y las inquietudes que se generan hoy en las empresas.
Descubra Watson Assistant
Fondo degradado negro y azul
¿Qué es machine learning?

Machine learning es una rama de la inteligencia artificial (IA) y las ciencias de la computación que se centra en el uso de datos y algoritmos para imitar la forma en que los humanos aprenden, mejorando gradualmente su precisión.

IBM tiene una amplia historia con el machine learning. Uno de sus empleados, Arthur Samuel, fue el primero en acuñar el término "machine learning" con su investigación (PDF, 481 KB) (enlace externo a IBM) en torno al juego de las damas. Robert Nealey, el autoproclamado maestro de damas, jugó el juego en una computadora IBM 7094 en 1962, y perdió ante la computadora. En comparación con lo que se puede hacer hoy, esta hazaña parece trivial, pero se la considera un hito importante dentro del campo de la inteligencia artificial.

Durante las dos últimas décadas, los avances tecnológicos en capacidad de almacenamiento y procesamiento han permitido algunos productos innovadores basados en machine learning, como el motor de recomendaciones de Netflix y los autos sin conductor.

Machine learning es un componente importante del creciente campo de la ciencia de datos. Mediante el uso de métodos estadísticos, se entrenan algoritmos para hacer clasificaciones o predicciones, y para descubrir insights clave dentro de los proyectos de minería de datos. Estos insights posteriormente impulsan la toma de decisiones dentro de aplicaciones y empresas, lo que es ideal para influir en las métricas. La expansión y el crecimiento de los big data van a venir acompañados de un aumento de la demanda de científicos de datos en el mercado. Estos profesionales tendrán la función de ayudar a identificar las preguntas comerciales más relevantes y los datos para responderlas.

Los algoritmos de machine learning generalmente se crean utilizando estructuras que aceleran el desarrollo de soluciones, como TensorFlow y PyTorch.

Conozca a watsonx.ai

Entrene, valide, perfeccione e implemente modelos básicos y de machine learning con facilidad

Diferencias entre machine learning, deep learning y redes neuronales

Dado que deep learning y machine learning tienden a ser utilizados indistintamente, vale la pena señalar sus diferencias. Machine learning, deep learning y las redes neuronales son todos subcampos de la inteligencia artificial. Sin embargo, las redes neuronales son en realidad un subcampo de machine learning y deep learning es un subcampo de las redes neuronales.

Deep learning y machine learning se diferencian en cómo aprende cada algoritmo. El machine learning "profundo" puede utilizar conjuntos de datos etiquetados, lo que se conoce también como aprendizaje supervisado, para informar a su algoritmo, pero no requiere necesariamente un conjunto de datos etiquetado. El deep learning puede ingerir datos no estructurados en su forma sin procesar (por ejemplo, texto o imágenes) y puede determinar automáticamente el conjunto de características que distinguen a las diferentes categorías de datos entre sí. Esto elimina parte de la intervención humana necesaria y permite el uso de conjuntos de datos más grandes. Deep learning puede considerarse un "machine learning escalable", como explica Lex Fridman en esta conferencia del MIT (01:08:05) (enlace externo a IBM).

El machine learning clásico o "no profundo" depende más de la intervención humana para aprender. Los expertos humanos determinan el conjunto de características necesarias para comprender las diferencias entre las entradas de datos y, por lo general, requieren más datos estructurados para aprender.

Las redes neuronales, o redes neuronales artificiales (ANN), se componen de capas de nodos que contienen una capa de entrada, una o más capas ocultas, y una capa de salida. Cada nodo, o neurona artificial, se conecta a otro y tiene un peso y un umbral asociados. Si la salida de cualquier nodo individual está por encima del valor de umbral especificado, dicho nodo se activa, enviando datos a la siguiente capa de la red. De lo contrario, no se transmiten datos a la siguiente capa de la red por ese nodo. El "deep" (profundo, en inglés) de deep learning hace referencia al número de capas de una red neuronal. Una red neuronal que consta de más de tres capas, que incluirían la de entrada y salida, puede considerarse un algoritmo de deep learning o una red neuronal profunda. Una red neuronal que solo tiene tres capas es una red neuronal básica.

A deep learning y a las redes neuronales se les atribuyen la aceleración del progreso en áreas como la visión artificial, el procesamiento del lenguaje natural y el reconocimiento del habla.

Consulte la entrada del blog "AI vs. Machine Learning vs. Deep Learning vs. Neural Networks: What's the Difference?" para obtener un análisis más detallado de cómo se relacionan los diferentes conceptos.

Cómo funciona el machine learning

UC Berkeley (enlace externo a IBM) divide el sistema de aprendizaje de un algoritmo de machine learning en tres partes principales.

  1. Un proceso de decisión: en general, los algoritmos de machine learning se utilizan para realizar una predicción o clasificación. Basándose en los datos de entrada, que pueden estar etiquetados o no, el algoritmo generará una estimación sobre un patrón en los datos.
  2. Una función de error: una función de error evalúa la predicción del modelo. Si hay ejemplos conocidos, una función de error puede hacer una comparación para evaluar la precisión del modelo.
  1. Un proceso de optimización del modelo: si el modelo puede ajustarse mejor a los puntos de datos del conjunto de entrenamiento, las ponderaciones se ajustan para reducir la discrepancia entre el ejemplo conocido y la estimación del modelo. El algoritmo repetirá este proceso de evaluación y optimización, actualizando los pesos de forma autónoma hasta que se haya alcanzado un umbral de precisión.  
Métodos de machine learning

Los modelos de machine learning se dividen en tres categorías principales.

Machine learning supervisado            

El aprendizaje supervisado, también conocido como machine learning supervisado, se define por el uso de conjuntos de datos etiquetados para entrenar algoritmos para clasificar datos o predecir resultados con precisión. A medida que se introducen los datos de entrada en el modelo, este ajusta sus ponderaciones hasta que encajen correctamente. Esto ocurre como parte del proceso de validación cruzada para garantizar que el modelo evite el sobreajuste o el subajuste. El aprendizaje supervisado permite a las organizaciones resolver una amplia variedad de problemas del mundo real a escala, como la clasificación de spam en una carpeta distinta de la bandeja de entrada. Algunos métodos utilizados en el aprendizaje supervisado son las redes neuronales, los clasificadores naïve bayes, la regresión lineal, la regresión logística, el bosque aleatorio y la máquina de vectores de soporte (SVM).

Machine learning no supervisado

El aprendizaje no supervisado, también conocido como machine learning no supervisado, utiliza algoritmos de machine learning para analizar y agrupar conjuntos de datos sin etiquetar. Estos algoritmos descubren patrones ocultos o agrupaciones de datos sin necesidad de intervención humana. Su capacidad de descubrir similitudes y diferencias en la información lo convierten en la solución ideal para el análisis de datos exploratorios, estrategias de venta cruzada, segmentación de clientes, reconocimiento de imágenes y patrones. También se utiliza para reducir la cantidad de funciones en un modelo a través del proceso de reducción de dimensionalidad. El análisis de componentes principales (PCA) y la descomposición en valores singulares (SVD) son dos enfoques comunes para esto. Otros algoritmos utilizados en el aprendizaje no supervisado incluyen redes neuronales, agrupamiento de k-medias y métodos de agrupación probabilísticos.

Aprendizaje semisupervisado 

El aprendizaje semisupervisado ofrece un punto intermedio entre el aprendizaje supervisado y el no supervisado. Durante el entrenamiento, utiliza un conjunto de datos etiquetado más pequeño para guiar la clasificación y la extracción de características de un conjunto de datos más grande y sin etiquetar. El aprendizaje semisupervisado puede resolver el problema de no tener suficientes datos etiquetados para un algoritmo de aprendizaje supervisado. También es útil si el costo de etiquetar datos suficientes es demasiado elevado. 

Para obtener un análisis más detallado de las diferencias entre estos enfoques, consulte el artículo "Supervised vs. Unsupervised Learning: What's the Difference?"

Machine learning por refuerzo

Machine learning por refuerzo es un modelo de machine learning que es similar al aprendizaje supervisado, pero el algoritmo no se entrena utilizando datos de muestra. Este modelo aprende a medida que utiliza el método de prueba y error. Se reforzará una secuencia de resultados satisfactorios para desarrollar la mejor recomendación o política para un problema determinado.

El sistema IBM® Watson, que ganó el desafío de Jeopardy! en 2011, constituye un buen ejemplo. El sistema utilizó el aprendizaje por refuerzo para aprender cuándo intentar una respuesta (o pregunta, por así decirlo), qué casilla seleccionar en el tablero y cuánto apostar, especialmente en los dobles diarios.

Descubra más acerca del aprendizaje por refuerzo.          

Algoritmos comunes de machine learning

Comúnmente se utilizan varios algoritmos de machine learning. Estos incluyen:

  • Redes neuronales: las redes neuronales simulan la forma en que funciona el cerebro humano, con una gran cantidad de nodos de procesamiento vinculados. Las redes neuronales son buenas para reconocer patrones y juegan un papel importante en las aplicaciones, como la traducción de lenguaje natural, el reconocimiento de imágenes, el reconocimiento de voz y la creación de imágenes.
  • Regresión lineal: este algoritmo se utiliza para predecir valores numéricos, basándose en una relación lineal entre diferentes valores. Por ejemplo, la técnica podría usarse para prever los precios de la vivienda en función de los datos históricos del área.
  • Regresión logística: este algoritmo de aprendizaje supervisado hace predicciones para variables de respuesta categórica, como las respuestas "sí/no" a las preguntas. Se puede utilizar para aplicaciones como la clasificación de spam y el control de calidad de una línea de producción.
  • Agrupación en clústeres: mediante el aprendizaje no supervisado, los algoritmos de agrupación en clúster pueden identificar patrones en los datos para que puedan ser agrupados. Las computadoras pueden ayudar a los científicos de datos al identificar las diferencias entre los elementos de datos que los humanos han pasado por alto.
  • Árboles de decisión: los árboles de decisión se pueden usar tanto para predecir valores numéricos (regresión) como para clasificar datos en categorías. Los árboles de decisión utilizan una secuencia de ramificación de decisiones vinculadas que se pueden representar con un diagrama de árbol. Una de las ventajas de los árboles de decisión es que son fáciles de validar y auditar, a diferencia de la caja negra de la red neuronal.
  • Bosques aleatorios: en un bosque aleatorio, el algoritmo de machine learning predice un valor o categoría combinando los resultados de una serie de árboles de decisión.
Casos de uso de machine learning en el mundo real

Estos son solamente algunos ejemplos de machine learning que puede encontrar todos los días:

Reconocimiento del habla: también denominado reconocimiento automático de voz (ASR), reconocimiento de voz por computadora o conversión de voz a texto, es una funcionalidad que utiliza el procesamiento de lenguaje natural (NLP) para traducir el habla humana a un formato escrito. Muchos dispositivos móviles incorporan el reconocimiento del habla en sus sistemas para realizar búsquedas por voz (por ejemplo, Siri), o mejorar la accesibilidad para enviar mensajes de texto.

Servicio al cliente: en el servicio al cliente, los chatbots en línea están reemplazando a los agentes humanos en la ruta del cliente y están cambiando la forma en que concebimos la interacción del cliente en los sitios web y las plataformas de redes sociales. Los chatbots responden preguntas frecuentes sobre temas como el envío, o brindan asesoramiento personalizado, venta cruzada de productos o sugerencias de tallas para los usuarios. Algunos ejemplos son los agentes virtuales en sitios de comercio electrónico, los bots de mensajería que usan Slack y Facebook Messenger, y las tareas que suelen realizar los asistentes virtuales y los asistentes de voz.

Visión artificial: esta tecnología de IA permite que las computadoras obtengan información significativa de imágenes digitales, videos y otras entradas visuales, y que a partir de ello tomen las medidas pertinentes. Basada en redes neuronales convolucionales, la visión artificial se puede aplicar en el etiquetado de fotos en redes sociales, las imágenes radiológicas en el ámbito de la salud y los vehículos autónomos en la industria automotriz. 

Motores de recomendaciones: utilizando datos del comportamiento pasado de los consumidores, los algoritmos de IA pueden ayudar a descubrir tendencias de datos que se utilizan para desarrollar estrategias de venta cruzada más eficaces. Los minoristas en línea utilizan este enfoque para hacer recomendaciones de productos relevantes para los clientes durante el proceso de compra.

Comercio bursátil automatizado: diseñadas para optimizar las carteras de acciones, las plataformas bursátiles de alta frecuencia basadas en IA hacen miles o incluso millones de operaciones por día sin intervención humana.

Detección de fraude: los bancos y otras instituciones financieras pueden usar machine learning para detectar transacciones sospechosas. El aprendizaje supervisado puede entrenar un modelo utilizando información de transacciones fraudulentas conocidas. La detección de anomalías puede identificar transacciones que parecen atípicas y merecen una mayor investigación.

Desafíos del machine learning

A medida que la tecnología de machine learning se ha desarrollado, sin duda ha hecho que nuestras vidas sean más fáciles. Sin embargo, implementar machine learning dentro de las empresas también ha planteado una serie de preocupaciones éticas en torno a las tecnologías de IA. Algunas de ellas son las siguientes:

Singularidad tecnológica

Aunque este tema atrae mucha atención del público, muchos investigadores no están preocupados por la idea de que la IA supere la inteligencia humana en un futuro cercano. La singularidad tecnológica también se conoce como IA fuerte o superinteligencia. El filósofo Nick Bostrum define la superinteligencia como "cualquier intelecto que supera con creces a los mejores cerebros humanos en prácticamente todos los campos, incluida la creatividad científica, la sabiduría general y las habilidades sociales". A pesar de que la superinteligencia no es inminente en la sociedad, su idea plantea algunas cuestiones interesantes si consideramos el uso de sistemas autónomos, como los vehículos sin conductor. No es realista pensar que un automóvil sin conductor nunca tendría un accidente, pero ¿quién es responsable en esas circunstancias? ¿Deberíamos seguir desarrollando vehículos autónomos o limitamos esta tecnología a vehículos semiautónomos que ayudan a las personas a conducir de manera segura? Aún no existe una opinión definitiva al respecto, pero estos son los tipos de debates éticos que se están produciendo a medida que se desarrolla una nueva e innovadora tecnología de IA.

Impacto de la IA en los puestos de trabajos

Aunque gran parte de la percepción pública sobre la inteligencia artificial se centra en la pérdida de empleos, esta preocupación probablemente debería reformularse. Con cada nueva tecnología disruptiva, vemos que la demanda del mercado para funciones de trabajo específicas cambia. Por ejemplo, cuando vemos a la industria automotriz, muchos fabricantes, como GM, están cambiando para centrarse en la producción de vehículos eléctricos para alinearse con las iniciativas ecológicas. La industria energética no va a desaparecer, pero la fuente de energía está cambiando de una economía basada en el combustible a otra eléctrica.

De manera similar, la inteligencia artificial trasladará la demanda de puestos de trabajo a otras áreas. Será necesario que haya personas que ayuden a gestionar los sistemas de IA. También se necesitará personal para abordar problemas más complejos dentro de las industrias que son más propensas a verse afectadas por cambios en la demanda de empleo, como el servicio al cliente. El mayor desafío con la inteligencia artificial y su efecto en el mercado laboral será ayudar a las personas a hacer la transición a los nuevos roles solicitados.

Privacidad

La privacidad tiende a discutirse en el contexto de la privacidad de los datos, la protección de los datos y la seguridad de los datos. Estas preocupaciones han permitido a los responsables de formular las políticas avanzar más en los últimos años. Por ejemplo, en 2016, la legislación de GDPR se creó para proteger los datos personales de las personas en la Unión Europea y el Espacio Económico Europeo, dando a las personas un mayor control de sus datos. En los Estados Unidos, los estados individuales están elaborando políticas, como la Ley de Privacidad del Consumidor de California (CCPA), sancionada en 2018 y que exige que las empresas informen a los consumidores sobre la recopilación de sus datos. Una legislación como esta ha obligado a las empresas a reconsiderar la forma en que almacenan y utilizan la información de identificación personal (PII). Como resultado, las inversiones en seguridad se han convertido en una prioridad cada vez mayor para las empresas, ya que buscan eliminar cualquier vulnerabilidad y oportunidad de vigilancia, hackeo y ciberataques.

Sesgo y discriminación

Los casos de sesgo y discriminación en varios sistemas de machine learning han planteado muchas preguntas éticas acerca del uso de la inteligencia artificial. ¿Cómo podemos protegernos contra el sesgo y la discriminación cuando los propios datos de entrenamiento pueden ser generados por procesos humanos sesgados? Si bien las empresas suelen tener buenas intenciones en sus esfuerzos de automatización, Reuters (enlace externo a IBM) destaca algunas de las consecuencias imprevistas de incorporar la IA en las prácticas de contratación. En su esfuerzo por automatizar y simplificar un proceso, Amazon involuntariamente discriminó a los posibles candidatos a un trabajo por género para puestos técnicos y, finalmente, tuvo que descartar el proyecto. Harvard Business Review (enlace externo a IBM) ha planteado otras preguntas incisivas acerca del uso de la IA en las prácticas de contratación, como por ejemplo, qué datos se pueden utilizar al evaluar a un candidato para un puesto.

El sesgo y la discriminación tampoco se limitan a la función de recursos humanos, se pueden encontrar en una serie de aplicaciones, desde el software de reconocimiento facial hasta los algoritmos de las redes sociales.

A medida que las empresas se vuelven más conscientes de los riesgos de la IA, también se han vuelto más activas en la discusión en torno a su ética y sus valores. Por ejemplo, IBM ha puesto fin a sus productos de análisis y reconocimiento facial de propósito general. Arvind Krishna, actual director ejecutivo de IBM, escribió: "IBM se opone firmemente y no consentirá el uso de ninguna tecnología, incluida la tecnología de reconocimiento facial ofrecida por otros proveedores, para la vigilancia masiva, la elaboración de perfiles raciales, las violaciones de los derechos humanos y las libertades básicas, o cualquier propósito que no sea consistente con nuestros valores y Principios de confianza y transparencia".

Responsabilidad

Dado que no hay una legislación significativa para regular las prácticas de IA, no existe ningún mecanismo de aplicación real que garantice prácticas éticas de IA. Los incentivos actuales para que las empresas sean éticas son las repercusiones negativas que un sistema de IA poco ético tiene en el resultado final. Para cubrir esta carencia, han emergido marcos éticos como parte de una colaboración entre expertos en ética e investigadores para gestionar la construcción y distribución de modelos de IA dentro de la sociedad. Sin embargo, por el momento, estos solo sirven como orientación. Algunas investigaciones  (enlace externo a IBM) (PDF, 1 MB) muestran que la combinación de responsabilidad distribuida y la falta de previsión de las posibles consecuencias no conducen a la prevención de daños a la sociedad.

Lea más acerca de la posición de IBM en torno a la ética de la IA.

Soluciones relacionadas
Deep learning

Diseñe redes neuronales complejas. Experimente a escala para implementar modelos de aprendizaje optimizados en IBM® Watson Studio.

Explore deep learning
Analítica predictiva

Analice datos y cree modelos de analítica para predecir resultados futuros. Descubra los riesgos y las oportunidades para su negocio.

Explore la analítica predictiva
Cree aplicaciones con procesamiento de lenguaje natural

El NLP es IA que habla el idioma de su empresa. Cree soluciones que generen un 383 % de ROI durante tres años con IBM® Watson Discovery.

Explore la creación de aplicaciones con NLP
Recursos AI in the enterprise, 2021: Unleashing opportunity through data

La tecnología de IA ha evolucionado rápidamente en las últimas dos décadas. Descubra cómo las empresas están implementando la IA en la actualidad.

Gartner Magic Quadrant para plataformas de machine learning y ciencia de datos

Conozca las herramientas que usan las empresas para ejecutar y gestionar de forma eficiente los modelos de IA y empoderar a sus científicos de datos con tecnología que puede ayudarlos a optimizar su toma de decisiones basada en datos.

E-book Machine Learning for Dummies

Descubra cómo el machine learning le permite aprender continuamente de los datos y predecir el futuro.

Magic Quadrant de plataformas empresariales de IA conversacional, 2023

IBM fue nuevamente reconocida como líder en el Gartner® Magic Quadrant™ de 2023 para IA conversacional empresarial.

Dé el siguiente paso

IBM® Watson Studio en IBM® Cloud Pak for Data admite el ciclo de vida de machine learning de end-to-end en una plataforma de datos e IA. Permite crear, entrenar y gestionar modelos de machine learning dondequiera que se encuentren sus datos e implementarlos en cualquier lugar de su entorno híbrido multinube.Explore cómo crear, entrenar y gestionar modelos de machine learning dondequiera que se encuentren sus datos e implementarlos en cualquier lugar de su entorno híbrido multinube.

Explore IBM® Cloud Pak for Data hoy mismo