Machine Learning

menu icon

Machine Learning

Esta introducción a machine learning incluye una visión general de su historia, definiciones importantes, aplicaciones y problemas en los negocios actuales.

¿Qué es machine learning?

Machine learning es una rama de la inteligencia artificial (IA) y la informática que se centra en el uso de datos y algoritmos para imitar la forma en la que aprenden los seres humanos, con una mejora gradual de su precisión.

IBM tiene una amplia historia con machine learning. Uno de sus empleados, Arthur Samuel, fue el primero en acuñar el término "machine learning" con su investigación (PDF, 481 KB) (enlace externo a IBM) sobre el juego de las damas. Robert Nealey, el autoproclamado maestro de las damas, jugó al juego en un ordenador IBM 7094 en 1962 y perdió contra el ordenador. En comparación con lo que se puede hacer hoy día, esta hazaña parece casi trivial, pero se considera un hito importante en el campo de la inteligencia artificial. En el próximo par de décadas, los desarrollos tecnológicos sobre almacenamiento y potencia de procesamiento habilitarán algunos productos innovadores que conocemos y amamos hoy, como el motor de recomendación de Netflix o los coches de conducción autónoma.

Machine learning es un componente importante del creciente campo de la ciencia de datos. Mediante el uso de métodos estadísticos, los algoritmos se entrenan para hacer clasificaciones o predicciones, y descubrir información clave dentro de los proyectos de minería de datos. Esta información clave facilita posteriormente la toma de decisiones dentro de las aplicaciones y las empresas, lo que afecta idealmente a las métricas de crecimiento clave. A medida que el big data continúa expandiéndose y creciendo, aumenta la demanda de mercado de científicos de datos, para que ayuden en la identificación de las preguntas de negocios más relevantes y los datos necesarios para responderlas.

Diferencias entre Machine Learning, Deep Learning y redes neuronales

Como deep learning y machine learning tienden a utilizarse indistintamente, es interesante señalar las diferencias entre ambos. Machine learning, deep learning y redes neuronales son todos subcampos de la inteligencia artificial. No obstante, deep learning es en realidad un subcampo de machine learning, y las redes neuronales son un subcampo de deep learning.

Deep learning y machine learning se diferencian en cómo aprende cada algoritmo. Deep learning automatiza gran parte de la extracción de características del proceso, elimina parte de la intervención humana manual necesaria y permite el uso de conjuntos de datos más grandes. Deep learning puede considerarse un "aprendizaje automático escalable" como explica Lex Fridman en esta conferencia del MIT (00:30) (enlace externo a IBM). El machine learning clásico o "no profundo" depende más de la intervención humana para aprender. Los expertos humanos determinan el conjunto de características necesarias para comprender las diferencias entre las entradas de datos y, por lo general, requieren más datos estructurados para aprender.

El machine learning "profundo" puede aprovechar los conjuntos de datos etiquetados, lo que se conoce también como aprendizaje supervisado, para informar a su algoritmo, pero no requiere necesariamente un conjunto de datos etiquetado. Puede ingerir datos no estructurados en formato bruto (por ejemplo, texto, imágenes) y puede determinar automáticamente el conjunto de características que distinguen las distintas categorías de datos entre sí. A diferencia de machine learning, no requiere intervención humana para procesar los datos, lo que nos permite escalar machine learning de maneras más interesantes. A deep learning y las redes neuronales se les atribuye principalmente la aceleración del progreso en áreas como, por ejemplo, la visión por ordenador, el procesamiento del lenguaje natural y el reconocimiento del habla.

Las redes neuronales, o redes neuronales artificiales (ANN), están formadas por capas de nodos que contienen una capa de entrada, una o varias capas ocultas, y una capa de salida. Cada nodo, o neurona artificial, se conecta a otro y tiene un peso y un umbral asociados. Si la salida de un nodo individual está por encima del valor de umbral especificado, dicho nodo se activa y envía datos a la siguiente capa de la red. De lo contrario, no se pasan datos a la siguiente capa de la red. Deep learning hace referencia a la profundidad de las capas en una red neuronal. Una red neuronal que consta de más de tres capas, incluidas las entradas y la salida, puede considerarse un algoritmo de deep learning o una red neuronal profunda. Una red neuronal que solo tiene dos o tres capas es una red neuronal básica.

Consulte la entrada del blog "AI vs. Machine Learning vs. Deep Learning vs. Neural Networks: What’s the Difference?" para obtener un análisis más exhaustivo sobre cómo se relacionan los diferentes conceptos.

Cómo funciona machine learning

UC Berkeley (enlace externo a IBM) divide el sistema de aprendizaje de un algoritmo de machine learning en tres partes principales.

  1. Un proceso de decisión: En general, los algoritmos de machine learning se utilizan para realizar una predicción o una clasificación. Basándose en los datos de entrada, que pueden estar etiquetados o no, el algoritmo generará una estimación sobre un patrón en los datos.
  2. Una función de error: La función de error sirve para evaluar la predicción del modelo. Si hay ejemplos conocidos, una función de error puede hacer una comparación para evaluar la precisión del modelo.
  3. Un proceso de optimización de modelos: Si el modelo puede ajustarse mejor a los puntos de datos del conjunto de entrenamiento, los pesos se ajustan para reducir la discrepancia entre el ejemplo conocido y la estimación del modelo. El algoritmo repetirá este proceso de evaluación y optimización, y actualizará los pesos de forma autónoma hasta que se alcance un umbral de precisión.

Métodos de machine learning

Los clasificadores de machine learning se dividen en tres categorías principales.

Machine learning supervisado

El aprendizaje supervisado, también conocido como machine learning supervisado, se define por su uso de los conjuntos de datos etiquetados para entrenar los algoritmos para clasificar datos o predecir resultados con precisión. A medida que se introducen datos de entrada en el modelo, adapta sus pesos hasta que el modelo se haya ajustado correctamente. Esto ocurre como parte del proceso de validación cruzada para asegurarse de que el modelo evita el sobreajuste o el infraajuste. El aprendizaje supervisado permite a las organizaciones resolver una amplia variedad de problemas del mundo real a escala como, por ejemplo, la clasificación de spam en una carpeta distinta de la bandeja de entrada. Algunos métodos utilizados en el aprendizaje supervisado son las redes neuronales, Naïve Bayes, la regresión lineal, la regresión logística, el bosque aleatorio, la máquina de vectores de soporte (SVM), etc.

Machine learning no supervisado

El aprendizaje no supervisado, también conocido como machine learning no supervisado, utiliza algoritmos de machine learning para analizar y agrupar conjuntos de datos sin etiquetar. Estos algoritmos descubren agrupaciones de datos o patrones ocultos sin necesidad de ninguna intervención humana. Su capacidad de descubrir similitudes y diferencias en la información lo convierten en la solución ideal para el análisis de datos exploratorios, las estrategias de venta cruzada, la segmentación de clientes, y el reconocimiento de imágenes y patrones. También se utiliza para reducir el número de características en un modelo mediante el proceso de reducción de dimensionalidad; el Análisis de componentes principales (PCA) y la Descomposición del valor singular (SVD) son dos enfoques comunes que se utilizan para ello. Otros algoritmos utilizados en el aprendizaje no supervisado son las redes neuronales, la agrupación en clúster de medias K, los métodos de agrupación probabilística, etc.

Aprendizaje semisupervisado

El aprendizaje semisupervisado ofrece un punto intermedio entre el aprendizaje supervisado y no supervisado. Durante el entrenamiento, utiliza un conjunto de datos etiquetados más pequeño para guiar la clasificación y la extracción de características de un conjunto de datos sin etiquetar de mayor tamaño. El aprendizaje semisupervisado puede resolver el problema de no tener suficientes datos etiquetados (o no poder permitirse etiquetar suficientes datos) para entrenar un algoritmo de aprendizaje supervisado.

Para un análisis más detallado sobre las diferencias entre estos enfoques, consulte el artículo "Supervised vs. Unsupervised Learning: What's the Difference?"

Machine learning de refuerzo

Machine learning de refuerzo es un modelo de machine learning de comportamiento que es similar al aprendizaje supervisado, pero el algoritmo no se entrena utilizando datos de muestra. Este modelo aprende a través de prueba y error. Se reforzará una secuencia de resultados satisfactorios para desarrollar la mejor recomendación o política para un problema determinado.

El sistema IBM Watson® que ganó el concurso de televisión Jeopardy! en 2011 es un buen ejemplo. El sistema utilizó el aprendizaje de refuerzo para decidir si intentaba dar una respuesta (o pregunta, por así decirlo), qué casilla seleccionar en el tablero y cuánto apostar, especialmente en los dobles diarios.

Más información sobre el aprendizaje de refuerzo.

Casos de uso de machine learning en el mundo real

Aquí se exponen algunos ejemplos de machine learning que puede encontrar en su día a día:

Reconocimiento de voz: también denominado reconocimiento automático de voz (ASR), reconocimiento de voz por ordenador o Speech to Text, es una funcionalidad que utiliza el procesamiento de lenguaje natural (NLP) para procesar el habla humana en formato escrito. Muchos dispositivos móviles incorporan el reconocimiento de voz en sus sistemas para realizar búsquedas de voz, por ejemplo, Siri, o aumentar la accesibilidad de la escritura.

Servicio al cliente: los chatbots en línea están sustituyendo a los agentes humanos en la interacción con el cliente. Responden a preguntas frecuentes (FAQ) sobre distintos temas, por ejemplo, el envío, o proporcionan asesoramiento personalizado, ofrecen productos de venta cruzada o recomiendan distintos tamaños para los usuarios, cambiado la forma de interactuar con los clientes en los sitios web y las plataformas de redes sociales. Los ejemplos incluyen bots de mensajería en sitios de e-commerce con agentes virtuales, aplicaciones de mensajería como Slack y Facebook Messenger, y tareas generalmente realizadas por asistentes virtuales y asistentes de voz.

Visión por ordenador: esta tecnología de IA permite a los ordenadores y sistemas obtener información significativa a partir de imágenes digitales, vídeos y otras entradas visuales y, en función de esas entradas, realizar distintas acciones. Esta función de proporcionar recomendaciones lo distingue de las tareas de reconocimiento de imágenes. Basada en redes neuronales convolucionales, la visión por ordenador tiene aplicaciones en el etiquetado de fotografías en redes sociales, las imágenes radiológicas en la atención médica y los coches de conducción autónoma en la industria del automóvil.

Motores de recomendación: utilizando datos de comportamiento de consumo anteriores, los algoritmos de IA permiten descubrir tendencias de datos que pueden utilizarse para desarrollar estrategias de venta cruzada más eficaces. Esto se utiliza para hacer recomendaciones complementarias relevantes a los clientes durante el proceso de compra en las tiendas en línea.

Comercio bursátil automatizado: diseñado para optimizar las carteras de acciones, las plataformas de comercio de alta frecuencia basadas en IA realizan miles o incluso millones de operaciones al día sin intervención humana.

Desafíos de Machine Learning

A medida que avanza la tecnología de machine learning, ha conseguido que nuestras vidas sean más fáciles. Sin embargo, la implementación de machine learning en las empresas también ha planteado una serie de problemas éticos relacionados con las tecnologías de IA. Algunos de estos incluyen:

Singularidad tecnológica

Aunque este tema recibe mucha atención pública, la mayoría de investigadores no están preocupados por la idea de que la IA supere a la inteligencia humana en un futuro cercano o inmediato. Esto también se conoce como superinteligencia, que Nick Bostrum define como "cualquier intelecto que supere ampliamente a los mejores cerebros humanos en prácticamente todos los campos, por ejemplo, la creatividad científica, la sabiduría general y las habilidades sociales". A pesar del hecho de que la IA fuerte y la superinteligencia no son inminentes en la sociedad, su idea plantea algunas preguntas interesantes cuando consideramos el uso de sistemas autónomos, como los coches de conducción autónoma. No es realista pensar que un coche sin conductor nunca tendría un accidente, pero ¿quién sería responsable en esas circunstancias? ¿Seguimos intentando crear vehículos autónomos o limitamos la integración de esta tecnología para crear solo vehículos semiautónomos que promuevan la seguridad entre los conductores? El jurado todavía está deliberando, pero estos son los tipos de debates éticos que surgen a medida que se desarrolla la nueva tecnología de IA innovadora.

Impacto de la IA en los trabajos:

Aunque gran parte de la percepción pública sobre la inteligencia artificial se centra en la pérdida de empleos, esta preocupación probablemente debería reformularse. Con cada nueva tecnología disruptiva, vemos que cambia la demanda del mercado de puestos de trabajo específicos. Por ejemplo, si observamos la industria del automóvil, muchos fabricantes, como GM, están cambiando para centrarse en la producción de vehículos eléctricos y alinearse con iniciativas ecológicas. La industria energética no va a desaparecer, pero la fuente de energía está cambiando de una economía basada en el combustible a otra eléctrica. La inteligencia artificial debe mirarse bajo el mismo prisma: la IA cambiará la demanda de empleos a otras áreas. Se necesitarán personas para gestionar estos sistemas a medida que los datos crezcan y cambien cada día. También se necesitarán recursos para abordar problemas más complejos dentro de las industrias que son más propensas a verse afectadas por cambios en la demanda de empleo, como el servicio al cliente. La relevancia de la inteligencia artificial y su efecto en el mercado laboral ayudará a las personas a cambiar a estas nuevas áreas de demanda del mercado.

Privacidad:

La privacidad tiende a analizarse en el contexto de la privacidad, la protección y la seguridad de los datos, y es en estos campos donde los creadores de políticas han podido hacer más avances en los últimos años. Por ejemplo, en 2016, se creó la legislación de GDPR para proteger los datos personales de las personas en la Unión Europea y el Espacio Económico Europeo, ofreciéndoles un mayor control de sus datos. En Estados Unidos, los distintos estados están desarrollando políticas como, por ejemplo, la Ley de Privacidad del Consumidor de California (CCPA), que requieren que las empresas informen a los consumidores sobre la recopilación de sus datos. Esta reciente legislación ha obligado a las empresas a replantearse cómo almacenan y utilizan datos de identificación personal (PII). Como resultado, las inversiones en seguridad se han convertido en una prioridad cada vez mayor para las empresas que buscan eliminar cualquier vulnerabilidad y oportunidad de vigilancia, piratería y ciberataques.

Sesgo y discriminación:

Los casos de sesgo y discriminación en varios sistemas inteligentes han planteado muchas preguntas éticas sobre el uso de la inteligencia artificial. ¿Cómo podemos protegernos contra el sesgo y la discriminación cuando los propios datos de entrenamiento pueden estar sesgados? Normalmente, aunque las empresas tienen las mejores intenciones en sus esfuerzos de automatización, Reuters (enlace externo a IBM) destaca algunas de las consecuencias imprevistas de incorporar la IA en las prácticas de contratación. En su esfuerzo por automatizar y simplificar un proceso, Amazon involuntariamente sesgó los posibles candidatos a un trabajo por género para puestos técnicos libres y, en última instancia, tuvieron que desechar el proyecto. A medida que se descubren sucesos como este, Harvard Business Review (enlace externo a IBM) ha planteado otras cuestiones sobre el uso de la IA en las prácticas de contratación como, por ejemplo, qué datos se pueden utilizar al evaluar un candidato para un puesto.

El sesgo y la discriminación tampoco se limitan a la función de recursos humanos; se puede encontrar en distintas aplicaciones, desde el software de reconocimiento facial a los algoritmos de redes sociales.

A medida que las empresas se vuelven más conscientes de los riesgos de la IA, se han vuelto más activas en este debate sobre la ética y los valores de la IA. Por ejemplo, el año pasado el CEO de IBM, Arvind Krishna, anunció que IBM ha desechado sus productos de análisis y reconocimiento facial de IBM de uso general, enfatizando que "IBM se opone firmemente y no tolerará los usos de ninguna tecnología, incluida la tecnología de reconocimiento facial ofrecida por otros proveedores, para la vigilancia masiva, el perfil racial, las violaciones de derechos humanos y otras libertades básicas, o cualquier propósito que no sea consistente con nuestros valores y Principios de confianza y transparencia".

Para ampliar esta información, consulte el blog de políticas de IBM, donde se describe su punto de vista sobre "Un método de regulación de precisión para controlar las exportaciones de tecnología de reconocimiento facial".

Responsabilidad

Dado que no hay una legislación significativa para regular las prácticas de IA, no existe ningún mecanismo de ejecución real para garantizar prácticas éticas de IA. Los incentivos actuales para que las empresas sigan estas directrices son las repercusiones negativas de un sistema de IA poco ético en el resultado final. Para cubrir esta carencia, han emergido marcos éticos como parte de una colaboración entre expertos en ética e investigadores para gobernar la construcción y distribución de modelos de IA dentro de la sociedad. No obstante, por ahora, solo sirven como guía, y un estudio (enlace externo a IBM) (PDF, 984 KB) muestra que la combinación de la responsabilidad distribuida y falta de previsión de las posibles consecuencias no es necesariamente propensa a prevenir el daño en la sociedad.

Aquí encontrará más información sobre la posición de IBM sobre la ética de la IA.

Machine learning e IBM Cloud

IBM Watson Machine Learning da soporte al ciclo de vida completo de machine learning. Está disponible en una gama de ofertas que le permiten crear modelos de machine learning en cualquier lugar donde residan sus datos y desplegarlos en cualquier lugar del entorno híbrido multicloud.

IBM Watson Machine Learning en IBM Cloud Pak for Data ayuda a los equipos de IA y ciencia de datos de empresa a acelerar el desarrollo y el despliegue de IA en cualquier lugar, en una plataforma de datos e IA nativa en cloud. IBM Watson Machine Learning Cloud, un servicio gestionado en el entorno de IBM Cloud, es la forma más rápida de pasar modelos de la experimentación en el escritorio al despliegue para cargas de trabajo de producción. Para equipos más pequeños que buscan escalar los despliegues de machine learning, IBM Watson Machine Learning Server ofrece una instalación sencilla en cualquier cloud privado o público.

Para empezar, regístrese para obtener un IBMid y crear su cuenta de IBM Cloud.