Una unidad de procesamiento gráfico (GPU) es un circuito electrónico diseñado para acelerar el procesamiento informático de gráficos e imágenes en diversos dispositivos. Estos dispositivos incluyen tarjetas de vídeo, placas de sistema, teléfonos móviles y ordenadores personales (PC).
Al realizar cálculos matemáticos rápido, una GPU reduce el tiempo que necesita un ordenador para ejecutar múltiples programas. Esto lo convierte en un facilitador esencial de tecnologías emergentes y futuras, como el machine learning (ML), la inteligencia artificial (IA) y el blockchain.
Antes de la invención de las GPU en la década de 1990, los controladores gráficos en los PC y en los controladores de videojuegos dependían de la unidad central de procesamiento (CPU) de un ordenador para ejecutar tareas. Desde principios de la década de 1950, las CPU han sido los procesadores más importantes de un ordenador, ejecutando todas las instrucciones necesarias para ejecutar programas, como la lógica, el control y la entrada/salida (E/S).
Sin embargo, con la llegada de los juegos para uso personal y el diseño asistido por ordenador (CAD) en la década de 1990, el sector necesitaba una forma más rápida y eficaz de combinar píxeles con rapidez.
En 2007, Nvidia creó CUDA (Compute Unified Device Architecture), una plataforma de software e interfaz de programación de aplicaciones (API) que daba a los desarrolladores acceso directo a las capacidades de computación paralela de las GPU, lo que les permitía utilizar la tecnología GPU para una gama más amplia de funciones que antes.
En la década de 2010, la tecnología de GPU adquirió aún más capacidades, entre las que destacan el trazado de rayos (la generación de imágenes de ordenador mediante el trazado de la dirección de la luz desde una cámara) y los núcleos tensoriales (diseñados para permitir el deep learning).
Gracias a estos avances, las GPU han desempeñado un papel crucial en la aceleración de la IA y los procesadores de deep learning, lo que ha ayudado a acelerar el desarrollo de aplicaciones de IA y ML. Hoy en día, además de alimentar las consolas de juegos y el software de edición, las GPU impulsan funciones informáticas de vanguardia críticas para muchas empresas.
Una GPU dispone de su propia memoria de acceso rápido (RAM), una memoria electrónica utilizada para almacenar código y datos a los que el chip puede acceder y modificar según sus necesidades. Las GPU avanzadas suelen contar con RAM diseñada específicamente para almacenar los grandes volúmenes de datos necesarios para tareas de cálculo intensivo, como la edición de gráficos, los juegos o los casos de uso de IA/ML.
Los dos tipos de memoria para GPU más populares son la memoria dinámica de acceso aleatorio síncrona de doble velocidad de datos 6 para gráficos (GDDR6) y la GDDR6X, una generación posterior. GDDR6X utiliza un 15 % menos de energía por bit transferido que GDDR6, pero su consumo total de energía es mayor porque es más rápido. Las iGPU pueden integrarse en la CPU de un ordenador o insertarse en una ranura junto a ella y conectarse a través de un puerto PCI express.
Las CPU y las GPU comparten un diseño similar, que incluye un número similar de núcleos y transistores para las tareas de procesamiento, pero las CPU son más polivalentes en sus funciones que las GPU. Las GPU suelen centrarse en una tarea informática única y específica, como el procesamiento de gráficos o el machine learning.
Las CPU son el corazón y el cerebro de un sistema o dispositivo informático. Reciben instrucciones generales o solicitudes con respecto a una tarea de un programa o aplicación de software. Y una GPU tiene una tarea más específica, normalmente el procesamiento rápido de imágenes y vídeos de alta resolución. Las GPU realizan constantemente cálculos matemáticos complejos necesarios para renderizar gráficos u otras funciones de computación intensiva para realizar su tarea.
Una de las mayores diferencias es que las CPU tienden a utilizar menos núcleos y realizar sus tareas en un orden lineal. Sin embargo, las GPU tienen cientos, incluso miles, de núcleos, lo que permite el procesamiento en paralelo que impulsa sus capacidades de procesamiento ultrarrápidas.
Las primeras GPU se construyeron para acelerar el renderizado de gráficos en 3D, haciendo que las escenas de películas y videojuegos parecieran más realistas y atractivas. El primer chip de GPU, el GeForce de Nvidia, salió al mercado en 1999 y estuvo seguido rápidamente de un período de crecimiento acelerado que vio cómo las capacidades de la GPU se extendieron a otras áreas gracias a sus poderosas capacidades de procesamiento paralelo de alta velocidad.
El procesamiento paralelo, o computación paralela, es un tipo de computación que se basa en dos o más procesadores para realizar diferentes subconjuntos de una tarea informática general.
Antes de las GPU, los ordenadores de generaciones anteriores solo podían ejecutar un programa a la vez y a menudo tardaban horas en completar una tarea. La función de procesamiento paralelo de las GPU realiza muchos cálculos o tareas simultáneamente, lo que las hace más rápidas y eficientes que las CPU de los ordenadores más antiguos.
Hay tres tipos de GPU:
Las GPU discretas, o dGPU, son procesadores gráficos que están separados de la CPU de un dispositivo, donde se toma y procesa la información, lo que permite que una computadora funcione. Las GPU discretas se utilizan normalmente en aplicaciones avanzadas con requisitos especiales, como la edición, la creación de contenidos o los juegos de alta gama. Son chips distintos con conectores a placas de circuito separadas y conectados a la CPU mediante una ranura exprés.
Una de las GPU discretas más utilizadas es la marca Intel Arc, diseñada para el sector de los juegos de PC.
Las GPU integradas, o iGPU, están integradas en la infraestructura de un ordenador o dispositivo y, por lo general, se colocan junto a la CPU. Diseñadas en la década de 2010 por Intel, las GPU integradas se hicieron más populares cuando fabricantes como MSI, ASUS y Nvidia se dieron cuenta del poder de combinar GPU con CPU, en lugar de exigir que los usuarios agreguen GPU a través de una ranura PCI Express por sí mismos. Siguen siendo una opción popular para los usuarios de ordenadores portátiles, jugadores y otras personas que ejecutan programas de computación intensiva en sus PC.
Las GPU virtuales, o vGPU, tienen las mismas capacidades que las GPU discretas o integradas, pero sin el hardware. Son versiones basadas en software de GPU creadas para instancias en la nube y se pueden usar para ejecutar las mismas cargas de trabajo. Además, al no tener hardware, su mantenimiento es más sencillo y barato que el de sus homólogos físicos.
Una GPU en la nube se refiere al acceso a una GPU virtual por parte de un proveedor de servicios en la nube (CSP). En los últimos años, el mercado de servicios de GPU basados en la nube ha crecido, impulsado por la aceleración del cloud computing y la creciente adopción de aplicaciones basadas en IA/ML. Según un informe de Fortune Business Insights, se prevé que el mercado de la GPU como servicio (GPUaaS), valorado en 3230 millones de dólares en 2023, crezca de 4310 millones de dólares en 2024 a 49 840 millones de dólares en 20321.
Muchos CSP, incluidos Google Cloud Platform, Amazon Web Services (AWS), Microsoft e IBM Cloud, ofrecen acceso bajo demanda a servicios de GPU escalables para optimizar el rendimiento de la carga de trabajo. Los CSP proporcionan recursos de GPU virtualizados de pago por uso en sus centros de datos. A menudo utilizan hardware GPU de los principales fabricantes de GPU, como Nvidia, AMD e Intel, para impulsar su infraestructura basada en la nube.
Las ofertas de GPU basadas en la nube suelen venir con configuraciones previas y se pueden implementar fácilmente. Estas características ayudan a las organizaciones a evitar los costes iniciales y el mantenimiento asociados a las GPU físicas. Además, a medida que las empresas buscan integrar cargas de trabajo de IA generativa para realizar tareas computacionales avanzadas (por ejemplo, creación de contenido, generación de imágenes), la escalabilidad y rentabilidad proporcionadas por las GPU basadas en la nube se han vuelto cruciales para los negocios empresariales.
Las referencias de GPU proporcionan un proceso para evaluar el rendimiento de la GPU en diversas condiciones. Estas herramientas de software especializadas permiten a los usuarios (por ejemplo, jugadores, artistas 3D, desarrolladores de sistemas) obtener conocimiento sobre sus GPUs y abordar problemas de rendimiento, como los cuellos de botella, la latencia y la compatibilidad con otros software y hardware.
Hay dos tipos principales de referencias de GPU: referencias sintéticas y referencias del mundo real. Las referencias sintéticas prueban el rendimiento bruto de una GPU en un entorno estandarizado. Las referencias del mundo real prueban el rendimiento de una GPU en aplicaciones específicas.
Las herramientas de evaluación comparativa de GPU analizan métricas de rendimiento como velocidades, velocidades de fotogramas y ancho de banda de memoria. También tienen en cuenta la eficiencia térmica y el uso de energía para ayudar a los usuarios a conseguir un rendimiento óptimo en función de sus necesidades específicas. Algunas plataformas de referencia de GPU también incorporan pruebas que miden qué tan bien interactúa una unidad de estado sólido (SSD) con una GPU.
A medida que las GPU fueron evolucionando, las mejoras técnicas las hicieron más programables y se descubrieron más capacidades. En concreto, su capacidad para dividir tareas en más de un procesador (procesamiento paralelo) los ha hecho indispensables para una amplia gama de aplicaciones, como juegos de PC, computación de alto rendimiento (HPC), estaciones de trabajo de renderizado 3D, computación de centros de datos y muchas otras.
Este es un análisis más detallado de algunas de las aplicaciones más importantes y modernas de la tecnología GPU, entre ellas:
Podría decirse que la IA y sus numerosas aplicaciones serían imposibles sin la computación GPU. La capacidad de las GPU para resolver problemas altamente técnicos de forma más rápida y eficaz que las CPU tradicionales las hace indispensables. Las GPU son componentes cruciales de muchos superordenadores, especialmente de los superordenadores de IA.
Las GPU impulsan muchas de las principales aplicaciones de IA, como el superordenador de IA nativo de la nube de IBM, Vela, que requieren altas velocidades para entrenarse en conjuntos de datos cada vez más grandes. Los modelos de IA se entrenan y funcionan en GPU de centros de datos, normalmente operadas por empresas que realizan investigaciones científicas u otras tareas intensivas de computación.
El machine learning, o ML, se refiere a una disciplina específica de la IA relacionada con el uso de datos y algoritmos para imitar la forma en que aprenden los humanos. El deep learning, o DL, es un subconjunto del ML que utiliza redes neuronales para simular el proceso de toma de decisiones del cerebro humano. La tecnología de GPU es crítica para ambas áreas de avance tecnológico.
Cuando se trata de ML y DL, las GPU potencian la capacidad de los modelos para clasificar conjuntos de datos masivos y hacer inferencias a partir de ellos de manera similar a los humanos. Las GPU mejoran específicamente las áreas de memoria y optimización porque pueden realizar múltiples cálculos simultáneos a la vez. Además, las GPU utilizadas en ML y DL utilizan menos recursos que las CPU sin que ello suponga una merma de la potencia o la precisión.
Blockchain, el libro de contabilidad utilizado para registrar transacciones y rastrear activos en redes empresariales, depende en gran medida de la tecnología GPU, especialmente cuando se trata de un paso llamado "prueba de trabajo". En muchos blockchains ampliamente utilizados, como las criptomonedas, el paso de la prueba de trabajo es vital para la validación de una transacción, lo que permite añadirla a la cadena de bloques.
El sector de los videojuegos aprovechó la potencia de las GPU a principios de la década de 1990 para mejorar la experiencia de juego en general con mayor velocidad y precisión gráfica. Hoy en día, los juegos personales requieren un alto consumo de recursos informáticos debido a los escenarios hiperrealistas, las interacciones en tiempo real y los vastos mundos inmersivos dentro del juego.
Las tendencias en los juegos, como la realidad virtual (RV), las frecuencias de actualización más altas y las pantallas de mayor resolución, dependen de las GPU para entregar gráficos rápidamente en entornos informáticos más exigentes. Las GPU para juegos incluyen AMD Radeon, Intel Arc y Nvidia GeForce RTX.
Tradicionalmente, los tiempos de renderizado prolongados han sido un importante obstáculo en las aplicaciones de software de edición profesional y de consumo. Desde su invención, las GPU han reducido de forma constante los tiempos de procesamiento y los recursos informáticos en productos de edición de vídeo como Final Cut Pro y Adobe Premiere.
En la actualidad, las GPU equipadas con procesamiento paralelo e IA incorporada aceleran drásticamente la capacidad de edición de todo tipo de aplicaciones, desde los conjuntos de edición profesionales hasta las aplicaciones para smartphones.
Las mejoras en el procesamiento, el rendimiento y la calidad gráfica han convertido a las GPU en elementos esenciales para transformar el sector de la creación de contenido. Hoy en día, los creadores de contenido equipados con una tarjeta gráfica de alto rendimiento e Internet de alta velocidad pueden generar contenido realista, aumentarlo con IA y machine learning y editarlo y transmitirlo a un público en vivo más rápido que nunca, todo en gran parte gracias a los avances en la tecnología GPU.
En los sistemas HPC, las GPU utilizan capacidades de procesamiento paralelo para acelerar las tareas que requieren un uso intensivo de los cálculos matemáticos, como los cálculos matemáticos complejos y el análisis de grandes datos en campos como el descubrimiento de fármacos, la producción de energía y la astrofísica.
Las GPU son muy demandadas en muchos sectores para mejorar la experiencia y la capacidad de formación de aplicaciones profesionales complejas, lo que incluye la visualización de productos, los dibujos CAD y la generación de imágenes médicas, sísmicas o geofísicas. Las GPU son críticas en las visualizaciones avanzadas, como el entrenamiento profesional de bomberos, astronautas, profesores de escuela, con animación 3D, IA y aprendizaje automático, renderizado avanzado y experiencias hiperrealistas de realidad virtual (RV) y realidad aumentada (RA).
Además, los ingenieros y científicos del clima utilizan aplicaciones de simulación con GPU para predecir las condiciones meteorológicas, la dinámica de fluidos, la astrofísica y el comportamiento de los vehículos en determinadas condiciones. La Nvidia RTX es una de las GPU más potentes disponibles para la visualización científica y la exploración de energía.
Con la proliferación de aplicaciones de la IA y la IA generativa, merece la pena examinar otros dos dispositivos de procesamiento especializado y cómo se comparan con la GPU. Las empresas actuales utilizan los tres tipos de procesadores (CPU, GPU y FPGA) según sus necesidades específicas.
Una unidad de procesamiento neuronal (NPU) es un microprocesador informático especializado diseñado para imitar la función de procesamiento del cerebro humano. También conocido como acelerador de IA, chip de IA o procesador de deep learning, una NPU es un acelerador de hardware creado para acelerar las redes neuronales de IA, el deep learning y el machine learning.
Tanto las NPU como las GPU mejoran la CPU de un sistema, aunque tienen diferencias notables. Las GPU contienen miles de núcleos para lograr las tareas computacionales rápidas y precisas necesarias para la renderización de gráficos y los juegos. Las NPU están diseñadas para acelerar las cargas de trabajo de la IA y la IA generativa, priorizando el flujo de datos y la jerarquía de memoria en tiempo real, con bajo consumo y latencia.
Las GPU de alto rendimiento son muy adecuadas para aplicaciones de deep learning o IA porque pueden manejar un gran volumen de cálculos en varios núcleos con grandes cantidades de memoria disponible. Las matrices de puertas programables de campo (FPGA) son tipos versátiles de circuitos integrados que pueden reprogramarse para diferentes funciones. En comparación con las GPU, las FPGA pueden proporcionar flexibilidad y rentabilidad para ofrecer un mejor rendimiento en aplicaciones de deep learning que requieren baja latencia, como imágenes médicas y edge computing.
Enlaces externos a IBM.
1 GPU as a Service Market Size, Share & Industry Analysis, Fortune Business Insights. Fortune Business Insights. 9 de diciembre de 2024
IBM Cloud Virtual Server for VPC es una familia de servidores virtuales Intel x86, IBM Z e IBM LinuxONE creados en IBM Cloud Virtual Private Cloud.
Los servidores específicos de IBM Cloud proporcionan una solución de alojamiento web escalable con tráfico de retorno ilimitado sin coste y amplias opciones de personalización.
Desbloquee nuevas capacidades e impulse la agilidad empresarial con los servicios de consultoría de nube de IBM. Descubra cómo cocrear soluciones, acelerar la transformación digital y optimizar el rendimiento mediante estrategias de nube híbrida y colaboraciones con expertos.