Contenido


Gran cerebro de datos, Parte 1

Preste atención a los datos para sacar el máximo provecho de la inteligencia artificial, el aprendizaje automático y la computación cognitiva

Comments

Contenido de la serie:

Este contenido es la parte # de # de la serie: Gran cerebro de datos, Parte 1

Manténgase en contacto por contenidos adicionales de esta serie.

Este contenido es parte de la serie:Gran cerebro de datos, Parte 1

Manténgase en contacto por contenidos adicionales de esta serie.

Cuando usted piensa en la inteligencia artificial (IA), ¿qué le viene a la cabeza? Probablemente piensa en una amplia variedad de categorías de técnicas, como los sistemas expertos basados en reglas, el aprendizaje automático y el procesamiento natural del lenguaje. Quizás usted tenga suficiente conocimiento para profundizar un poco más, en cuyo caso es probable que usted piense en encadenamiento hacia adelante y hacia atrás, redes neurales, lógica Bayesiana, agrupamiento y en otros sistemas clasificadores. Si hasta ahora todo esto es nuevo para usted, le recomiendo que lea el tutorial "La guía del principiante para la inteligencia artificial, el aprendizaje automático y la computación cognitiva"por M. Tim Jones antes de volver para continuar con este tutorial.

Si el énfasis que tiene cuando piensa en IA se encuentra entre las líneas que he escrito, usted no está solo en absoluto. La mayor parte de las personas, desde los principiantes sin habilidades en computación hasta los desarrolladores habilidosos, cuando piensan en IA, piensan en algoritmos y en mecanismos. Por supuesto que éstos son muy importantes, pero dejan fuera un factor crucial que separa a los proyectos de IA que tienen éxito de los que no lo tienen: los datos. La IA requiere datos, normalmente una gran cantidad de datos e idealmente una gran cantidad de datos de alta calidad. Una de las razones por las que la IA ha empezado a obtener más éxito generalizado, y que estamos introduciendo en la edad de la computación los cognitiva, es que la web hace que sea mucho más fácil encontrar grandes cantidades de datos.

Esto no debería ser algo sorprendente cuando se considera que las técnicas de IA se crearon como formas de convertir modos de percepción humanos en procesos de computación. Piense en a cuánta información está expuesto un niño a medida que desarrolla dichas percepciones. Cuántos objetos ve antes de que pueda navegar de forma segura por los entornos del mundo a través de la vista. Cuántas expresiones tiene que oír antes de poder hablar. Cuánto texto tiene que ver antes de poder leer. Cuánta educación y cuántas lecciones, ejemplos y pruebas de refuerzo tienen que superar antes de convertirse en un experto en ese tema. Esta enorme cantidad de información que los humanos absorben a lo largo del tiempo es clave para nuestra propia inteligencia, y lo mismo ocurre con la inteligencia artificial.

Casi todo lo que admiramos de la inteligencia humana proviene del reconocimiento de patrones, una búsqueda a través de percepciones posibles para determinar qué es lo que mejor corresponde para el estímulo que tenemos a mano. Todo se reduce a nuestra capacidad basada en las neuronas para realizar análisis estadísticos asombrosamente complicados en muy poco tiempo. También es bueno recordar que realmente no hay ninguna línea especial que divida los métodos estadísticos de la IA. La IA sólo es una forma de aplicar lo que podemos determinar con nuestras propias optimizaciones inteligentes e innatas según se adaptaron en la evolución humana para aplicar métodos estadísticos en el reconocimiento de patrones.

Durante los primeros días de computación, las ideas de cómo las computadoras debían hacer las cosas eran de gran importancia, y los pioneros de la IA, como Alan Turing, John von Neumann y John McCarthy, se enfocaron en cómo crear programas que pudieran dar lugar a la IA. Se les ocurrieron muchas ideas geniales, muchas de las cuales hoy en día todavía son básicas para la IA, pero rápidamente descubrieron que las osadas predicciones de que la poderosa IA estaba a la vuelta de la esquina, eran exageradas. Esto causó serios problemas en la credibilidad de su investigación y se estableció un patrón que se repitió a menudo, cuando alguien surgía con un nuevo conjunto de técnicas prometedoras y, luego no funcionaban de la manera esperada, seguía un "invierno de IA" lleno de escepticismo. Para evitar este problema en su propio trabajo, es importante que conozca bien sobre el rol de los datos en la IA. Este tutorial reúne todos los aspectos para usted.

Limitaciones históricas

En retrospectiva, entendemos que una razón para las dificultades que encontraron los pioneros de la IA era la dificultad de canalizar grandes cantidades de datos hacia sus algoritmos inteligentes. La memoria de acceso aleatorio (RAM) de las computadoras fue conocida como el "núcleo" durante mucho tiempo, y a veces todavía lo es, porque proviene de núcleos magnéticos de anillos de metal conectados a través de circuitos. Esto requiere de una ingeniería elaborada, e incluso después de la revolución de los chips semiconductores, la RAM siguió siendo un lujo. Sólo han pasado 30 años desde que Bill Gates hizo su infame proclamación de "640 K de memoria deberían ser suficientes para cualquiera", lo que debe ser pintoresco ahora que muchos de nosotros esperamos que nuestras computadoras vengan con al menos 8 GB, 13.000 veces más que la proclamación de Bill Gates.

La poca disponibilidad de RAM originalmente significó que la IA tenía que hacer la mayor parte de su trabajo en pequeños pedazos de información que se recombinaban en respuestas más amplias. Dichos abordajes dificultaban la eficiencia. El siguiente problema era almacenar grandes cantidades de datos que representaban cosas como el corpus de capacitación para el aprendizaje automático. Los pioneros de la IA tenían que utilizar sistemas muy limitados, como tarjetas perforadas, e incluso después de la aparición de las unidades magnéticas, el almacenamiento siempre fue muy caro hasta hace muy poco tiempo. Las siguientes imágenes muestran la tendencia de los costos de la memoria y del almacenamiento en discos duros a lo largo de las décadas.

Trend of cost reduction for memory over decades
Trend of cost reduction for memory over decades
Trend of cost reduction for hard storage over decades
Trend of cost reduction for hard storage over decades

El éxito y la enorme escala de la web se han producido cuando los costos de RAM y del almacenamiento duradero llegaron a mínimos anteriormente inimaginables. Esto brinda un enorme incentivo para que las personas y las instituciones digitalicen enormes cantidades de datos que representan la actividad humana, y gracias a los movimientos hacia una disponibilidad abierta de los datos, dichos recursos están disponibles para que los desarrolladores los aprovechen hasta un nivel que hace que la IA sea cada vez más práctica.

Los inicios con perceptrones

Uno de los primeros algoritmos de aprendizaje automático fue el perceptrón, un sistema para implementar clasificadores binarios. Un clasificador binario es una función que toma una entrada y determina si es un miembro de alguna clase. Los ejemplos incluyen una función que toma un conjunto de características de un objeto y determina si es un bote, o que toma el análisis espectral de un archivo de sonido y determina si es el sonido de una guitarra. Esas respuestas ("bote", "no bote", "guitarra" y "no guitarra") de la clasificación se llaman etiquetas.

El primer perceptrón se desarrolló para reconocer imágenes y estaba implementado completamente en hardware. Era entrenado mediante la exposición a conjuntos de imágenes de entrenamiento, cada una de las cuales tenía un resultado esperado, la etiqueta. Se podía alimentar con algunas imágenes y sus etiquetas, en este caso el proceso se conoce como aprendizaje supervisado.

También hay técnicas de aprendizaje automático en las que las etiquetas no se brindan en el conjunto de entrenamiento y el algoritmo tiene que utilizar técnicas estadísticas sofisticadas para identificar los grupos que indicarían las etiquetas resultantes. A esto se conoce como aprendizaje no supervisado, y es un tema más avanzado. Las consideraciones de los datos son similares en ambos casos, así que este tutorial se enfoca en el aprendizaje supervisado para simplificar la conversación sobre el aprendizaje automático. De hecho, la mayor parte de este tutorial utiliza el aprendizaje automático supervisado como ejemplo, pero las consideraciones generales son similares para muchos otros algoritmos de IA.

Esta es la parte complicada de los perceptrones: todas esas imágenes de los conjuntos de entrenamiento son datos. Es posible que usted no piense inmediatamente en ellas como tal, porque inicialmente se gestionaban de forma analógica. Por ejemplo, las imágenes podrían ser una pila de fotos de cosas que debían ser clasificadas como botes o no botes, y que recibían cuidadosamente las etiquetas esperadas del perceptrón. En ese momento esto no habría ocupado RAM ni almacenamiento en disco, pero son datos, y el hecho de que no lo hicieran fue un accidente de los aspectos prácticos de la situación.

Aprendizaje automático moderno y datos de entrenamiento

Hoy en día, la RAM y el almacenamiento se han vuelto baratos y, lo que es más, en la web hay miles de millones de imágenes que se podrían utilizar como un conjunto de entrenamiento para una red neural perceptiva visualmente. El reducido costo de los altos volúmenes de datos ha aumentado la disponibilidad de los mismos, y en la mayor parte de las aplicaciones de IA usted utilizará los datos obtenidos, de una forma o de otra, de la web.

El truco consiste en entender que si usted sólo adquiere mil millones de JPGs surtidos de botes y de no botes, no terminará teniendo un conjunto de entrenamiento adecuado. El control y la calidad son importantes. ¿Tiene que limpiar el ruido de las imágenes? ¿Tiene que cambiar el zoom o aumentar la resolución? Si hay muchas imágenes que no son botes, pero se anotan en la red neural como si fuesen botes, la red neural resultante sería un clasificador peor de lo que podría ser.

Para las redes neurales es importante tener los algoritmos adecuados, pero preparar un conjunto de entrenamiento es incluso más importante y, en muchos sentidos, más difícil. Es posible obtener un panel de expertos confiables y altamente preparados para que repasen cuidadosamente sus mil millones de JPGs y para que los etiqueten para el entrenamiento, pero obviamente esto sería caro y demorado. Podría dividir el esfuerzo entre más gente utilizando a menos expertos para clasificarlos de alguna forma, y esto le podría proporcionar un mayor volumen de datos de entrenamiento a un costo menor, pero usted tendría menos certeza acerca de la calidad. Podría tener una mayor proporción de "no botes" de los que tiene anotados como botes.

Después de que tenga un algoritmo de IA en el que confía más que determinado grado de confianza, podría utilizarlo para preparar el corpus de entrenamiento para otro programa. Por ejemplo, si tiene confianza de que una red neural A es buena clasificando botes, podría ejecutar su colección bruta de imágenes en ella y utilizar sus clasificaciones y anotaciones para convertirla en un conjunto de entrenamiento adecuado para la red neural B. Esto podría proporcionarle una atractiva combinación de volumen y de calidad. Los principales problemas aquí son el de arranque y la función de alimentación de errores.

El problema de arranque proviene del hecho de que las redes neurales tienden a estar adaptadas bastante rígidamente para un propósito muy específico. No es posible utilizar un buen clasificador de aeroplanos para desarrollar un conjunto de entrenamiento para un buen clasificador de botes, así que usted siempre tendrá que preparar un nuevo corpus de entrenamiento desde cero.

El problema de alimentación es que la red neural A puede que no sea tan buena como usted piensa en la clasificación de botes. Quizá sus debilidades están ocultas en el alto volumen de trabajo que es capaz de realizar. Si es así, tenderá a transmitir su debilidad a la red neural B. Este error de alimentación realmente es uno de los principales problemas en la aplicación de la IA. En el sentido más generalizado, se puede manifestar cuando varios sistemas automáticos trabajen en algún tipo de coordinación y la debilidad perceptiva a menudo se puede ampliar. Como discutiremos más tarde, dichas debilidades pueden tener costos económicos y sociales graves.

El conjunto de datos del lirio

El reconocimiento directo a partir de imágenes es un tipo de aprendizaje automático, pero es más habitual encontrar usos prácticos del aprendizaje automático donde los insumos sean descripciones numéricas de las características. En vez de hacer que un algoritmo trabaje directamente en los pixeles de una imagen de una cara para identificar a una persona, podría trabajar sobre un conjunto o un vector de números que representan características como el tamaño y el color de los ojos, la nariz, la boca y el perfil de la cara.

En 1935, el botánico Edgar Anderson realizó un estudio de campo y público un artículo "Los lirios de la península de Gaspé". En ese artículo se midieron 150 observaciones de características de muestras de lirios de tres especies diferentes, iris setosa, iris virginica e iris versicolor. Más específicamente, la longitud y la anchura de los sépalos y de los pétalos. En 1936, el estadístico y biólogo Ronald Fisher utilizó el conjunto de datos de Anderson para ilustrar técnicas estadísticas de clasificación que después se presentarían en el aprendizaje automático de las computadoras.

iris setosa, iris virginica, and iris versicolor
iris setosa, iris virginica, and iris versicolor

El conjunto de datos de los lirios se ha vuelto un icono en los círculos de la IA, y a menudo se utiliza como conjunto de entrenamiento para presentar el aprendizaje automático a desarrolladores novatos. Soporta el aprendizaje supervisado porque Anderson incluyó las especies de lirios (la etiqueta) con las medidas de las características (las muestras).

El Conjunto de Datos de los Lirios no sólo es famoso por su rol temprano e histórico en el aprendizaje automático, sino también por las dificultades de los problemas que empieza a mostrar. Por ejemplo, la especie iris setosa se puede separar linealmente de las otras dos especies, pero las otras dos están agrupadas, así que la separación lineal no es posible. Este es un detalle técnico, pero llevó a que se entendiese algo muy importante acerca de las limitaciones de los diferentes tipos de clasificadores. Los perceptrones son clasificadores estrictamente lineales, así que podrían funcionar para algunos aspectos del Conjunto de Datos de Lirios, pero no para otros.

iris data plot
iris data plot

Muchas mejoras en la tecnología del aprendizaje automático fueron posibles por la presencia de dichos datos de muestra tan buenos científicamente hablando y tan estadísticamente completos. Por ejemplo, se descubrió que añadir varias capas de redes neurales era una solución para muchas de las limitaciones que se encontraban en la aplicación de las percepciones, incluso en conjuntos de entrenamiento de tanta calidad como el de los datos de los lirios. Muy pocos algoritmos de computación son tan sensibles al cuidado y la alimentación como el aprendizaje automático, y este hecho continúa, tanto que incluso los expertos actuales necesitan datos de tanta calidad para sacar el máximo provecho de sus máquinas.

De lirios a globos oculares

Las redes neurales y los conjuntos de datos que las entrenan realmente se han vuelto más sofisticados desde la era de los Perceptrones, pero una de las grandes razones del incremento del dominio de la tecnología de la IA es que hay más personas que canalizan la actividad de sus neuronas de la vida real en Internet.

Cada vez que usted realiza una búsqueda en la web, cada vez que hace una publicación o una interacción en una red social, incluso cada vez que usted hacer clic en una parte del sitio en vez de en otra, está contribuyendo a los algoritmos con datos en vivo acerca de sus hábitos, intereses y preferencias. La mayor parte de esos algoritmos no se encuentran en los niveles más altos de sofisticación de la IA—los modelos estadísticos sencillos, como los métodos Bayesianos, son muy populares entre los que recopilan las interacciones online para los mercados —pero no tienen por qué serlo. La experiencia demuestra que cuanta mayor sea la cantidad de datos confiables a los que puedan acceder los algoritmos, menos sofisticación es necesaria.

Establecer el contexto para las acciones es la principal parte para establecer el valor de los datos que alimentan a dichos algoritmos. El hecho de que una persona estaba en un sitio de moda cuando hizo clic en determinado anuncio, mientras otra persona estaba en un sitio de deportes se convierte en una señal que se incorpora al corpus. Dicha aplicación del contexto es importante, aunque de formas diferentes, cuando se consideran otros tipos de datos que alimentan a la IA. Por ejemplo, si usted puede ser capaz de añadir información acerca de la ubicación geográfica de la flor del lirio para las medidas de sus pétalos y sépalos, probablemente podría entrenar un clasificador incluso más preciso.

Sin embargo, esto tiene límites. Si brinda demasiados detalles a cada elemento de datos, lo que técnicamente se llama dimensiones, podría quedarse preso en lo que se conoce como la maldición de la dimensionalidad. Este es un término general que cubre muchos problemas, pero la idea general es que cuando hay demasiadas dimensiones, los ejemplos que usted espera que sean similares podrían estar tan separados en el espacio en el que está buscando el algoritmo que nunca los organiza de forma efectiva en clústeres. Una consecuencia de esto se resume en la idea de que a medida que añade dimensiones, el número de ejemplos de entrenamiento que se necesitan crece exponencialmente.

Un paso habitual en la preparación de los datos para la IA es reducir el número de dimensiones del espacio de búsqueda buscando un plegado, que es un patrón matemático dentro de un subconjunto de dimensiones donde las agrupaciones ocurren más fácilmente. La técnica más común para realizarlo se llama Análisis de Componentes Principales (PCA).

Reduction of dimensionality from 1024 (image pixels) to 2 (rotation and scale)
Reduction of dimensionality from 1024 (image pixels) to 2 (rotation and scale)

En el lado izquierdo hay imágenes de la letra A para someterlas a reconocimiento visual. Si cada imagen tiene 32 x 32 pixeles y estrictamente está en blanco y negro, sería ingenuo representarla como vector de 1024 pixeles, que matemáticamente es un espacio de 1024 dimensiones. Por supuesto que, como persona, cuando usted las observa, se da cuenta instantáneamente de que realmente son la misma imagen girada y ampliada. Podría tomar el grado de rotación y de ampliación como dos dimensiones separadas, y acabar reduciendo la dimensionalidad de 1024 a 2, tal como se muestra a la derecha. Lo que usted puede hacer en su mente es una reducción de dimensionalidad desde el detalle pixel-a-pixel a dos variables intrínsecas de rotación y ampliación.

Por supuesto que este es un ejemplo muy simplificado, y que en práctica la reducción de la dimensionalidad puede ser bastante complicada, pero se reduce tanto a sofisticación matemática como a entendimiento profundo de los propios datos.

Monos en la máquina de escribir

Uno de los lugares en los que mejor entendemos el contexto, de forma intuitiva o en ciencia y tecnología, es en el lenguaje natural. Uno de los principales objetivos de la IA siempre ha sido que una computadora entienda idiomas, genere lenguaje e incluso realice una traducción de los idiomas. De hecho, la primera y más conocida prueba del éxito de la IA, la Prueba de Turing, se pasa cuando la computadora tiene una conversación convincente (lo que significa que entiende el idioma y genera el lenguaje de la respuesta) con una persona.

Durante la mayor parte de la historia del procesamiento natural del lenguaje, la rama relevante de la IA, el enfoque se centró en los algoritmos, en programar sistemas de gramática y en la gestión del vocabulario, todo con muy poco éxito. De nuevo recientemente, a medida que océanos de datos de lenguaje humano e incluso dictados de voz se han puesto a disposición online, las técnicas han cambiado para absorber estos datos en lote, y el éxito ha venido detrás. Todos estamos viendo lo rápido que mejoran los chatbots, igual que la traducción automática y los agentes móviles de nuestros teléfonos. Éstos se entrenan utilizando enormes corpus de datos de texto y de voz, que se anotan con el máximo contexto posible.

Sólo para darle una idea de esto, una de las curiosidades más antiguas del NLP ha sido el uso de matrices de correlaciones estadísticas de letras para generar lo que parecen textos naturales. La idea deriva de la vieja idea filosófica de que si ponemos suficientes monos delante de una máquina de escribir eventualmente generarían las obras literarias de Shakespeare. Por supuesto que la probabilidad de este escenario exacto es tan pequeña que no podemos esperar que ocurra en toda la vida del universo conocido. Sin embargo, si en la máquina de escribir del mono ponemos los modelos estadísticos observados en el lenguaje, sería viable que el mono produjese una comunicación participativa, aunque las acciones del mono todavía se considerasen aleatorias.

Como puede prever, el punto es que construir estos modelos estadísticos requiere de datos, por ejemplo, con qué frecuencia ocurren determinadas letras o palabras en relación de unas con otras. Un modelo habitual para esto es el n-gram, donde se tiene una matriz de frecuencia que muestra la frecuencia con la que ocurre cada secuencia de letras en los datos de entrenamiento. Por ejemplo, un 3-gram de un texto típico inglés mostraría un valor muy alto para la secuencia "ING" y uno bajo para la secuencia "HMF."

La siguiente imagen es un gráfico de los 20 principales bigrams (n-grams de dos dimensiones) del Hamlet de Shakespeare, ignorando la puntuación y los espacios y tratando todas las letras como minúsculas.

Chart of top 20 bigrams in Hamlet
Chart of top 20 bigrams in Hamlet

El origen y la naturaleza de los datos de entrenamiento importan. Si tomase los modelos estadísticos de las obras originales de Dante, podría esperar que el mono resultante sonase muy italiano y con mucha menos probabilidad de producir las obras literarias de Shakespeare en determinado tiempo. Tendría efectos similares si tomase las estadísticas de las épicas y de los libros sagrados hindúes, o de las propias obras literarias de Shakespeare.

Si usted cometiese el error de crear modelos estadísticos de las tres tradiciones literarias mencionadas, probablemente acabaría con un mono, o robot, ininteligible, que el que está actualmente implementado, que tardaría incluso más para producir algo que merezca la pena comunicar. Por lo tanto, para este caso no es suficiente alimentar al algoritmo con más y más datos ocultos. Debe prestar atención a su origen y entender cómo el insumo afecta al resultado.

Los peligros del sesgo

El problema de intentar reunir dichos datos con un contexto claro a escala es que es muy difícil evaluar las consecuencias imprevistas. En la publicidad online hay casos famosos de fijación de objetivos basada en algoritmos que mostraban tendencias que se podían interpretar en términos de sexismo, racismo o de otros prejuicios prohibidos, lo que puso a sus propietarios en problemas en el sentido de relaciones públicas.

Esto puede ocurrir por muchas razones. En algunos casos, el sesgo puede ser inherente a los tantos que entrenan a los algoritmos. Este es un problema común más general, incluso en la ciencia y en la creación de políticas. Es importante protegerse contra dichos sesgos y cuestionarse todas las suposiciones de las personas o sistemas que reúnen los datos, pero esto también es algo increíblemente difícil. La única solución es la vigilancia constante.

Un problema incluso más difícil surge cuando los datos no tienen el aspecto humano de su contexto, lo que crea sesgos completamente imprevistos. Algo sobre una presentación publicitaria en un sitio frecuentado por un grupo demográfico pueden dar lugar a su mayor éxito, lo que después se convierte en datos que se codifican en el algoritmo de una forma que puede parecer discriminatoria. De nuevo, la única solución posible es la vigilancia constante, y la revisión de los patrones que han surgido a lo largo del tiempo porque los humanos todavía detectan mejor que los algoritmos los problemas en contextos sociales.

De nuevo hay interesantes paralelismos en el NLP. Microsoft presentó un bot de IA en Twitter, y aunque no se revelaron sus algoritmos, estaba claro que utilizó el corpus de sus interacciones con los usuarios para desarrollar sus modelos de lenguaje. Después de que los usuarios lanzasen una avalancha de comentarios desagradables, pronto se adaptó para realizar publicaciones virulentamente antisociales y, poco después, los creadores tuvieron que desactivarlo.

Usted no quiere ser el desarrollador que recibe el reconocimiento el primer día de la presentación de una potente aplicación nueva de IA, para ser fustigado el sexto día, o incluso perder su trabajo, después de que esa aplicación absorba y presente suficientes prejuicios como para causar a sus empleadores un desastre de relaciones públicas.

Conclusión

Usted ha aprendido cuál es la importancia de los datos para la creación de aplicaciones de IA y cognitivas, y que esta importancia ha sido constante a lo largo de la historia de la disciplina, y que está conectada a sus éxitos y fallos históricos. También ha aprendido cómo la enorme cantidad de datos que hay disponibles online ha hecho que la IA renazca de sus muchos períodos invernales y ha empujado sus logros a la corriente principal de formas que afectan a muchas vidas y a muchas empresas. El actual periodo de éxito y de emoción viene con sus propios peligros como anomalías y sesgos imprevistos en los datos que alimentan la IA, que pueden dar lugar a efectos terribles, y respuestas sociales e incluso normativas.

Todo esto puede ser un trasfondo útil e interesante, pero ¿cómo se aplica en práctica el ciclo de vida de desarrollo de software (SDLC) a los datos de IA? Responderé a esta pregunta en el siguiente tutorial, entrando en detalles acerca del SDLC e ilustrando cómo se puede aplicar de forma más efectiva para abordar los problemas que comentado hasta ahora.


Recursos para Descargar


Temas relacionados


Comentarios

Inicie Sesión o Regístrese para agregar comentarios.

static.content.url=http://www.ibm.com/developerworks/js/artrating/
SITE_ID=90
Zone=Cognitive computing
ArticleID=1056818
ArticleTitle=Gran cerebro de datos, Parte 1: Preste atención a los datos para sacar el máximo provecho de la inteligencia artificial, el aprendizaje automático y la computación cognitiva
publish-date=01192018