¿Qué es machine learning?
Conozca la historia del concepto machine learning junto con definiciones importantes, aplicaciones y cuestiones de interés para las empresas actuales
Descubra Watson Assistant
Fondo degradado negro y azul
¿Qué es machine learning?

Machine learning es una rama de la inteligencia artificial (IA) y la informática que se centra en el uso de datos y algoritmos para imitar la forma en la que aprenden los seres humanos, con una mejora gradual de su precisión.

La historia de IBM con machine learning tiene un amplio recorrido. Uno de sus empleados, Arthur Samuel, fue el primero en acuñar el término "machine learning" con su investigación (PDF, 481 KB) (enlace externo a IBM) sobre el juego de las damas. Robert Nealey, el autoproclamado maestro de las damas, jugó al juego en un ordenador IBM 7094 en 1962 y perdió contra el ordenador. En comparación con lo que se puede hacer actualmente, esta hazaña parece trivial, pero se considera un hito importante en el campo de la inteligencia artificial.

Durante las últimas dos décadas, los avances tecnológicos en almacenamiento y potencia de proceso han hecho posible la aparición de ciertos productos innovadores basados en machine learning, como el motor de recomendaciones de Netflix y los coches autónomos.

Machine learning es un componente importante del creciente campo de la ciencia de datos. Mediante el uso de métodos estadísticos, los algoritmos se entrenan para hacer clasificaciones o predicciones, y descubrir información clave dentro de los proyectos de minería de datos. Esta información clave facilita posteriormente la toma de decisiones dentro de las aplicaciones y las empresas, lo que afecta idealmente a las métricas de crecimiento clave. La expansión y el crecimiento de big data van a venir acompañados de un aumento de la demanda de científicos de datos en el mercado. Se les pedirá que identifiquen las cuestiones más relevantes para la empresa y los datos necesarios para resolverlas.

Los algoritmos de machine learning, por lo general, se crean utilizando marcos de trabajo que aceleran el desarrollo de soluciones, como TensorFlow y PyTorch.

Descubra watsonx.ai

Entrene, valide, ajuste y despliegue fácilmente modelos básicos y de machine learning

Diferencias entre machine learning, deep learning y redes neuronales

Como deep learning y machine learning tienden a utilizarse indistintamente, es interesante señalar las diferencias entre ambos. Machine learning, deep learning y redes neuronales son todos subcampos de la inteligencia artificial. Sin embargo, las redes neuronales son, en realidad, un subcampo de machine learning y, a su vez, deep learning es un subcampo de las redes neuronales.

Deep learning y machine learning se diferencian en cómo aprende cada algoritmo. El machine learning "profundo" puede utilizar conjuntos de datos etiquetados, lo que se conoce también como aprendizaje supervisado, para informar a su algoritmo, pero no requiere necesariamente un conjunto de datos etiquetado. El deep learning puede consumir datos no estructurados en formato bruto (por ejemplo, texto, imágenes) y puede determinar automáticamente el conjunto de características que distinguen las distintas categorías de datos entre sí. De este modo, se evita parcialmente la intervención humana necesaria y se facilita el uso de conjuntos de datos más grandes. Deep learning puede considerarse un "machine learning escalable", como explica Lex Fridman en esta conferencia del MIT (01:08:05) (enlace externo a IBM).

El machine learning clásico o "no profundo" depende más de la intervención humana para aprender. Los expertos humanos determinan el conjunto de características necesarias para comprender las diferencias entre las entradas de datos y, por lo general, requieren más datos estructurados para aprender.

Las redes neuronales, o redes neuronales artificiales (ANN), están formadas por capas de nodos que contienen una capa de entrada, una o varias capas ocultas y una capa de salida. Cada nodo, o neurona artificial, se conecta a otro y tiene un peso y un umbral asociados. Si la salida de un nodo individual está por encima del valor de umbral especificado, dicho nodo se activa y envía datos a la siguiente capa de la red. De lo contrario, no se pasan datos a la siguiente capa de la red a través de dicho nodo. El "deep" (profundo, en inglés) de deep learning hace referencia al número de capas de una red neuronal. Una red neuronal que consta de más de tres capas, incluidas la entrada y la salida, puede considerarse un algoritmo de deep learning o una red neuronal profunda. Una red neuronal que solo tiene tres capas es una red neuronal básica.

A deep learning y las redes neuronales se les atribuye la aceleración del progreso en áreas como, por ejemplo, la visión por ordenador, el procesamiento del lenguaje natural y el reconocimiento del habla.

Consulte la entrada del blog "AI vs. Machine Learning vs. Deep Learning vs. Neural Networks: What's the Difference?" para obtener un análisis más exhaustivo sobre la relación que existe entre estos conceptos.

Cómo funciona machine learning

UC Berkeley (enlace externo a IBM) divide el sistema de aprendizaje de un algoritmo de machine learning en tres partes principales.

  1. Un proceso de decisión: en general, los algoritmos de machine learning se utilizan para realizar una predicción o una clasificación. Basándose en los datos de entrada, que pueden estar etiquetados o no, el algoritmo generará una estimación sobre un patrón en los datos.
  2. Una función de error: una función de error evalúa la predicción del modelo. Si hay ejemplos conocidos, una función de error puede hacer una comparación para evaluar la precisión del modelo.
  1. Si el modelo puede ajustarse mejor a los puntos de datos del conjunto de entrenamiento, los pesos se ajustan para reducir la discrepancia entre el ejemplo conocido y la estimación del modelo. El algoritmo repetirá este proceso de evaluación y optimización, y actualizará los pesos de forma autónoma hasta que se alcance un umbral de precisión.  
Métodos de machine learning

Los modelos de machine learning se dividen en tres categorías principales.

Machine learning supervisado             

El aprendizaje supervisado, también conocido como machine learning supervisado, se define por su uso de los conjuntos de datos etiquetados para entrenar los algoritmos para clasificar datos o predecir resultados con precisión. A medida que se introducen datos de entrada en el modelo, este adapta sus pesos hasta que se haya ajustado correctamente. Esto ocurre como parte del proceso de validación cruzada para asegurarse de que el modelo evite el sobreajuste o el subajuste. El aprendizaje supervisado permite a las organizaciones resolver una amplia variedad de problemas del mundo real a escala como, por ejemplo, la clasificación de spam en una carpeta distinta de la bandeja de entrada. Algunos métodos utilizados en el aprendizaje supervisado son las redes neuronales, Naïve Bayes, la regresión lineal, la regresión logística, el bosque aleatorio y la máquina de vectores de soporte (SVM).

Machine learning no supervisado

El aprendizaje no supervisado, también conocido como machine learning no supervisado, utiliza algoritmos de machine learning para analizar y agrupar en clústeres conjuntos de datos sin etiquetar. Estos algoritmos descubren agrupaciones de datos o patrones ocultos sin necesidad de ninguna intervención humana. La capacidad de este método para descubrir similitudes y diferencias en la información lo convierten en ideal para el análisis de datos exploratorios, las estrategias de venta cruzada, la segmentación de clientes y el reconocimiento de imágenes y patrones. También se utiliza para reducir el número de características de un modelo mediante el proceso de reducción de dimensionalidad. El análisis de componentes principales (PCA) y la descomposición en valores singulares (SVD) son dos de los enfoques más habituales para realizar este proceso. Otros algoritmos utilizados en el aprendizaje no supervisado son las redes neuronales, la agrupación en clúster de medias K y los métodos de agrupación probabilística.

Aprendizaje semisupervisado 

El aprendizaje semisupervisado ofrece un punto intermedio entre el aprendizaje supervisado y no supervisado. Durante el entrenamiento, utiliza un conjunto de datos etiquetados más pequeño para guiar la clasificación y la extracción de características de un conjunto de datos sin etiquetar de mayor tamaño. El aprendizaje semisupervisado puede resolver el problema de no tener suficientes datos etiquetados para un algoritmo de aprendizaje supervisado. También es útil si el coste de etiquetar datos suficientes es demasiado elevado. 

Para obtener un análisis más detallado sobre las diferencias entre estos enfoques, consulte el artículo "Supervised vs. Unsupervised Learning: What's the Difference?"

Machine learning de refuerzo

Machine learning de refuerzo es un modelo de machine learning que es similar al aprendizaje supervisado, pero el algoritmo no se entrena utilizando datos de muestra. Este modelo aprende a través de prueba y error. Se reforzará una secuencia de resultados satisfactorios para desarrollar la mejor recomendación o política para un problema determinado.

El sistema IBM® Watson que ganó el concurso de televisión Jeopardy! en 2011 es un buen ejemplo. El sistema utilizó el aprendizaje de refuerzo para decidir si intentaba dar una respuesta (o pregunta, por así decirlo), qué casilla seleccionar en el tablero, y cuánto apostar, especialmente en los dobles diarios.

Más información sobre el aprendizaje de refuerzo.          

Algoritmos comunes de machine learning

Hay varios algoritmos de machine learning de uso generalizado. Entre ellos, se incluyen:

  • Redes neuronales: las redes neuronales simulan el funcionamiento del cerebro humano, con un gran número de nodos de proceso vinculados. Las redes neuronales son eficaces para reconocer patrones y juegan un importante papel en aplicaciones como, por ejemplo, la conversión al lenguaje natural, el reconocimiento de imágenes, el reconocimiento del habla y la creación de imágenes.
  • Regresión lineal: este algoritmo se utiliza para predecir valores numéricos, con base en una relación lineal entre diferentes valores. Por ejemplo, la técnica podría servir para prever los precios de la vivienda en función de los datos históricos de la zona.
  • Regresión logística: este algoritmo de aprendizaje supervisado hace predicciones para variables de respuesta categórica, como respuestas "sí/no" a las preguntas. Se puede utilizar para aplicaciones como la clasificación de correo no deseado y el control de calidad de una línea de producción.
  • Agrupación en clústeres: mediante el aprendizaje no supervisado, los algoritmos de agrupación en clúster pueden identificar patrones en los datos para que puedan ser agrupados. Los ordenadores pueden servir a los científicos de datos para identificar las diferencias entre los elementos de datos que los humanos hayan pasado por alto.
  • Árboles de decisión: los árboles de decisión se pueden utilizar para predecir valores numéricos (regresión) y para clasificar datos en categorías. Los árboles de decisión utilizan una secuencia de ramificaciones de decisiones vinculadas que se pueden representar con un diagrama de árbol. Una de las ventajas de los árboles de decisión es que son fáciles de validar y auditar, a diferencia de la caja negra de la red neuronal.
  • Bosques aleatorios: en un bosque aleatorio, el algoritmo de machine learning predice un valor o categoría combinando los resultados de una serie de árboles de decisión.
Casos de uso de machine learning en el mundo real

Aquí se exponen algunos ejemplos de machine learning que puede encontrar en su día a día:

Reconocimiento del habla: también denominado reconocimiento automático del habla (ASR), reconocimiento del habla por ordenador o Speech to Text, es una funcionalidad que utiliza el procesamiento del lenguaje natural (NLP) para convertir el habla humana en formato escrito. Muchos dispositivos móviles incorporan el reconocimiento del habla en sus sistemas para realizar búsquedas de voz —por ejemplo, Siri— o mejorar la accesibilidad de la escritura.

Servicio al cliente: en servicio al cliente, los chatbots en línea están reemplazando a los agentes humanos a lo largo de la interacción con el cliente y están cambiando nuestra forma de enfocar el compromiso con el cliente en los sitios web y las plataformas de redes sociales. Los chatbots responden preguntas más frecuentes (FAQ) sobre temas como envíos u ofrecen recomendaciones personalizadas, venta cruzada de productos o sugerencias de tallas para los usuarios. Entre los ejemplos de este tipo se incluyen los agentes virtuales de los sitios de comercio electrónico, los bots de mensajería, que utilizan Slack y Facebook Messenger, y las tareas que suelen realizar los asistentes virtuales y los asistentes de voz.

Visión por ordenador: esta tecnología de IA permite a los ordenadores obtener información significativa a partir de imágenes digitales, vídeos y otras entradas visuales y, a continuación, realizar distintas acciones. Basada en redes neuronales convolucionales, la visión por ordenador tiene aplicaciones en el etiquetado de fotografías en redes sociales, las imágenes radiológicas en la atención médica y los coches autónomos en la industria del automóvil. 

Motores de recomendaciones: utilizando datos de comportamiento de consumo anteriores, los algoritmos de IA permiten descubrir tendencias de datos que pueden utilizarse para desarrollar estrategias de venta cruzada más eficaces. Los distribuidores de comercio minorista en línea utilizan este recurso para recomendar productos relevantes a los clientes durante el proceso de pago.

Comercio bursátil automatizado: diseñado para optimizar las carteras de acciones, las plataformas de negociación de alta frecuencia basadas en IA realizan miles o incluso millones de transacciones al día sin intervención humana.

Detección de fraude: los bancos y otras instituciones financieras pueden utilizar machine learning para detectar transacciones sospechosas. El aprendizaje supervisado puede entrenar a un modelo utilizando información sobre transacciones fraudulentas conocidas. La detección de anomalías puede identificar transacciones que parecen atípicas y requieren una mayor investigación.

Desafíos de machine learning

Es obvio que el desarrollo de la tecnología de machine learning ha conseguido que nuestras vidas sean más fáciles. Sin embargo, la implementación de machine learning en las empresas también ha planteado una serie de problemas éticos en torno a las tecnologías de IA. Entre ellos, destacamos:

Singularidad tecnológica

Aunque esta cuestión recibe mucha atención pública, la mayoría de los investigadores no están preocupados por la idea de que la IA supere a la inteligencia humana en un futuro cercano. La singularidad tecnológica también se denomina IA fuerte o superinteligencia. El filósofo Nick Bostrum define la superinteligencia como "cualquier intelecto que supera con creces a los mejores cerebros humanos en prácticamente todos los campos, incluida la creatividad científica, la sabiduría general y las habilidades sociales". A pesar del hecho de que la superinteligencia no es algo inminente en la sociedad, esta idea plantea algunas preguntas interesantes si consideramos el uso de sistemas autónomos, como los automóviles autónomos. No es realista pensar que un coche sin conductor nunca tendría un accidente, pero ¿quién sería responsable en esas circunstancias? ¿Deberíamos seguir desarrollando vehículos autónomos o limitamos esta tecnología a los vehículos semiautónomos, que ayudan a las personas a conducir de forma segura? Todavía no se ha alcanzado ningún consenso al respecto, pero estos son los tipos de debates éticos que surgen a medida que se desarrolla la nueva tecnología de IA innovadora.

Impacto de la IA sobre los puestos de trabajo

Aunque gran parte de la percepción pública sobre la inteligencia artificial se centra en la pérdida de empleos, esta preocupación probablemente debería reformularse. Con cada nueva tecnología disruptiva, vemos que cambia la demanda del mercado de puestos de trabajo específicos. Por ejemplo, si observamos la industria del automóvil, muchos fabricantes, como GM, están cambiando para centrarse en la producción de vehículos eléctricos y alinearse con iniciativas ecológicas. La industria energética no va a desaparecer, pero la fuente de energía está cambiando de una economía basada en el combustible a otra eléctrica.

De manera similar, la inteligencia artificial cambiará la demanda de puestos de trabajo a otras áreas. Será necesario que haya personas que ayuden a gestionar los sistemas de IA. También se necesitará personal para abordar problemas más complejos dentro de las industrias que son más propensas a verse afectadas por cambios en la demanda de empleo, como el servicio al cliente. El mayor reto de la inteligencia artificial y su efecto en el mercado laboral será facilitar la transición de las personas a los nuevos perfiles profesionales que demande el mercado.

Privacidad

El debate en torno a la privacidad tiende a llevarse a cabo en el contexto de la privacidad de datos, la protección de datos y la seguridad de datos. En los últimos años, estas cuestiones han permitido hacer más avances a los legisladores. Por ejemplo, en 2016, se creó la legislación de GDPR para proteger los datos personales de las personas en la Unión Europea y el Espacio Económico Europeo, ofreciéndoles un mayor control de sus datos. En Estados Unidos, los distintos estados están desarrollando políticas como, por ejemplo, la Ley de Privacidad del Consumidor de California (CCPA), que entró en vigor en 2018 y requiere que las empresas informen a los consumidores sobre la recopilación de sus datos. Este tipo de leyes han obligado a las empresas a reconsiderar la forma de almacenar y utilizar la información de identificación personal (PII). Como resultado, las inversiones en seguridad se han convertido en una prioridad cada vez mayor para las empresas que buscan eliminar cualquier vulnerabilidad y oportunidad de vigilancia, piratería y ciberataques.

Sesgo y discriminación

Los casos de sesgo y discriminación en varios sistemas de machine learning han planteado muchas preguntas éticas sobre el uso de la inteligencia artificial. ¿Cómo podemos evitar el sesgo y la discriminación cuando los propios datos de entrenamiento pueden estar generados mediante procesos humanos sesgados? Normalmente, aunque las empresas ponen buenas intenciones en sus iniciativas de automatización, Reuters (enlace externo a IBM) destaca algunas de las consecuencias imprevistas de incorporar la IA en las prácticas de contratación. En su intento por automatizar y simplificar un proceso, Amazon involuntariamente discriminó por género a los posibles candidatos a un trabajo para puestos técnicos y, en última instancia, la compañía tuvo que desechar el proyecto. Harvard Business Review (enlace externo a IBM) ha planteado otras cuestiones sobre el uso de la IA en las prácticas de contratación como, por ejemplo, qué datos se pueden utilizar al evaluar a un candidato para un puesto.

El sesgo y la discriminación no se limitan a la función de recursos humanos, sino que también están presentes en distintas aplicaciones, desde el software de reconocimiento facial a los algoritmos de redes sociales.

A medida que las empresas se vuelven más conscientes de los riesgos de la IA, se han vuelto también más activas en este debate sobre la ética y los valores de la IA. Por ejemplo, IBM ha puesto fin a sus productos de análisis y reconocimiento facial de uso general. En palabras de Arvind Krishna, CEO de IBM: "IBM se opone firmemente y no tolerará los usos de ninguna tecnología, incluida la tecnología de reconocimiento facial ofrecida por otros proveedores, para la vigilancia masiva, la creación de perfiles raciales, las violaciones de derechos humanos y otras libertades básicas, o cualquier propósito que no concuerde con nuestros valores y principios de confianza y transparencia".

Rendición de cuentas

Dado que no hay ninguna legislación significativa para regular las prácticas de IA, no existe ningún mecanismo de ejecución real para garantizar la ética en las prácticas de IA. Los incentivos actuales para que las empresas sean éticas son las repercusiones negativas que un sistema de IA poco ético puede tener sobre el resultado final. Para cubrir esta carencia, han emergido marcos éticos como parte de una colaboración entre expertos en ética e investigadores para gobernar la construcción y distribución de modelos de IA dentro de la sociedad. Sin embargo, por el momento, solo tienen carácter orientativo. Ciertos estudios (enlace externo a IBM) (PDF, 1 MB) demuestran que la combinación de la responsabilidad distribuida y la carencia de previsión de las posibles consecuencias no conducen precisamente a la prevención de los daños a la sociedad.

Lea más información sobre la postura de IBM en torno a la ética de la IA.

Soluciones relacionadas
Deep learning
Diseñe redes neuronales complejas. Experimente a escala para implementar modelos de aprendizaje optimizados en IBM Watson Studio.
Explore deep learning
Analítica predictiva

Analice datos y cree modelos de analítica para prever futuros resultados. Descubra riesgos y oportunidades para su negocio.

Explore la analítica predictiva
Cree aplicaciones con el procesamiento del lenguaje natural

El NLP es IA que habla el idioma de su empresa. Cree soluciones que generen un ROI del 383 % en tres años con IBM Watson Discovery.

Explore la creación de aplicaciones con NLP
Recursos AI in the enterprise, 2021: Unleashing opportunity through data

La tecnología de IA ha evolucionado rápidamente durante las últimas dos décadas. Descubra cómo implementan la IA las empresas hoy en día.

Gartner Magic Quadrant para plataformas de machine learning y ciencia de datos

Conozca las herramientas que utilizan las empresas para ejecutar y gestionar modelos de IA de manera eficiente y aportar a sus científicos de datos tecnología que puede ayudar a optimizar su toma de decisiones basadas en datos.

Libro electrónico Machine learning para principiantes

Descubra cómo machine learning permite aprender continuamente de los datos y prever el futuro.

Magic Quadrant para plataformas empresariales de IA conversacional, 2023

IBM vuelve a obtener el reconocimiento como líder en el Gartner® Magic Quadrant™ de 2023 para IA conversacional empresarial.

Dé el siguiente paso

IBM Watson Studio on IBM Cloud Pak for Data da soporte a todo el ciclo de vida de machine learning en las plataformas de datos e IA. Permite crear, entrenar y gestionar modelos de machine learning en cualquier lugar donde residan los datos y desplegarlos en cualquier lugar del entorno híbrido de varias nubes.Explore cómo crear, entrenar y gestionar modelos de machine learning en cualquier lugar donde residan los datos y desplegarlos en cualquier lugar del entorno híbrido de varias nubes.

Explore IBM Cloud Pak for Data hoy mismo