Las predicciones de Turing sobre las máquinas inteligentes en los años 50 sentaron las bases filosóficas de los desarrollos posteriores de la inteligencia artificial (IA). Los pioneros de las redes neuronales como Hinton y LeCun en los años 80 y 2000 allanaron el camino para los modelos generativos. A su vez, el auge del deep learning en la década de 2010 impulsó importantes avances en el procesamiento del lenguaje natural (PLN), la generación de imágenes y textos y el diagnóstico médico mediante la segmentación de imágenes, lo que amplió las capacidades de la IA. Estos avances están culminando en la IA multimodal, que aparentemente puede hacerlo todo, pero al igual que los avances anteriores han conducido a la multimodal, ¿a qué podría conducir esta?
Desde sus inicios, la IA generativa ha ido evolucionando. Ya hemos visto a desarrolladores como OpenAI y Meta alejarse de los modelos grandes para incluir otros más pequeños y menos costosos, mejorando los modelos de IA para hacer lo mismo o más con menos. El prompt engineering está cambiando a medida que modelos como ChatGPT se vuelven más inteligentes y capaces de comprender mejor los matices del lenguaje humano. A medida que los LLM se entrenan con información más específica, pueden proporcionar una amplia experiencia para sectores especializados, y convertirse en agentes siempre activos listos para ayudar a completar tareas.
La IA no es flor de un día. No es una fase. Más de 60 países han desarrollado estrategias nacionales de IA para aprovechar sus beneficios y, al mismo tiempo, mitigar sus riesgos. Esto significa realizar inversiones sustanciales en investigación y desarrollo, revisar y adaptar las normas políticas y los marcos reguladores pertinentes y garantizar que la tecnología no diezme la equidad del mercado laboral y la cooperación internacional.
La comunicación entre humanos y máquinas es cada vez más sencilla, y esto permite a los usuarios de IA lograr más con mayor destreza. Se prevé que la IA aporte 4,4 billones de dólares a la economía mundial a través de la exploración y optimización continuas.
Boletín del sector
Obtenga conocimientos organizados sobre las noticias más importantes e intrigantes de la IA. Suscríbase a nuestro boletín semanal Think. Consulte la Declaración de privacidad de IBM.
Su suscripción se enviará en inglés. Encontrará un enlace para darse de baja en cada boletín. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.
De aquí a 2034, la IA se convertirá en un elemento más, presente en muchos aspectos de nuestra vida personal y profesional. Los modelos de IA generativa como GPT-4 han demostrado ser muy prometedores en el poco tiempo que han estado disponibles para el consumo público, pero sus limitaciones también son bien conocidas. Como resultado, el futuro de la IA se define por un cambio hacia modelos a gran escala de código abierto para la experimentación y el desarrollo de modelos más pequeños y eficientes para estimular la facilidad de uso y facilitar un menor coste.
Iniciativas como Llama 3.1, un modelo de IA de código abierto con 400 mil millones de parámetros, y Mistral Large 2, lanzado con fines de investigación, ilustran la tendencia a fomentar la colaboración comunitaria en proyectos de IA a la vez que se mantienen los derechos comerciales. El creciente interés por modelos más pequeños ha llevado a la creación de modelos como el GPT 4o-mini, de 11 mil millones de parámetros, que es rápido y rentable. No pasará mucho tiempo antes de que haya un modelo adecuado para integrarse en dispositivos como smartphones, especialmente a medida que el coste siga disminuyendo.
Este movimiento refleja una transición de modelos exclusivamente grandes y cerrados a soluciones de IA más accesibles y versátiles. Aunque los modelos más pequeños son asequibles y eficientes, sigue existiendo una demanda pública de sistemas de IA más potentes, lo que indica que probablemente habrá un enfoque equilibrado en el desarrollo de la IA para intentar priorizar tanto la escalabilidad como la accesibilidad. Estos nuevos modelos ofrecen una mayor precisión con menos recursos, lo que los hace ideales para empresas que necesitan crear contenidos personalizados o capacidades para resolver problemas complejos.
La IA ha influido en el desarrollo de varias tecnologías fundamentales. La IA desempeña un papel fundamental en el avance de la visión artificial al permitir un análisis más preciso de imágenes y vídeos, algo esencial para tecnologías como los vehículos autónomos y el diagnóstico médico. En el procesamiento del lenguaje natural (PLN), la IA incrementa la capacidad de las máquinas para comprender y generar lenguaje humano, lo que mejora las interfaces de comunicación y permite disponer de herramientas más sofisticadas de traducción y análisis de sentimientos.
La IA potencia el análisis predictivo y de big data, ya que procesa e interpreta grandes cantidades de datos para predecir tendencias y fundamentar decisiones. En robótica, el desarrollo de máquinas más autónomas y adaptables simplifica tareas como el ensamblaje, la exploración y la prestación de servicios. Además, las innovaciones impulsadas por la IA en el Internet de las Cosas (IoT) mejoran la conectividad y la inteligencia de los dispositivos, lo que permite que los hogares, las ciudades y los sistemas industriales sean más inteligentes.
He aquí algunos de los avances en IA que deberíamos ver dentro de diez años:
El incipiente campo de la IA multimodal estará completamente probado y perfeccionado en 2034. La IA unimodal se centra en un único tipo de datos, como la PLN o la visión artificial. Por el contrario, la IA multimodal se parece más a la forma en que los humanos se comunican al comprender los datos a través de imágenes, voz, expresiones faciales e inflexiones vocales. Esta tecnología integrará texto, voz, imágenes, vídeos y otros datos para crear interacciones más intuitivas entre humanos y sistemas informáticos. Tiene el potencial de impulsar asistentes virtuales y chatbots avanzados que entiendan consultas complejas y puedan ofrecer en respuesta textos personalizados, ayudas visuales o tutoriales en vídeo.
La IA se integrará aún más en las esferas personal y profesional, impulsada por plataformas fáciles de usar que permitan a los no expertos utilizar la IA para empresas, tareas individuales, investigación y proyectos creativos. Estas plataformas, similares a los creadores de sitios web actuales, permitirán a empresarios, educadores y pequeñas empresas desarrollar soluciones de IA personalizadas sin necesidad de contar con amplios conocimientos técnicos.
La IA impulsada por API y los microservicios permitirán a las empresas integrar funciones avanzadas de IA en sus sistemas existentes de forma modular. Este enfoque acelerará el desarrollo de aplicaciones personalizadas sin requerir amplios conocimientos de IA.
Para las empresas, una creación de modelos más sencilla significa ciclos de innovación más rápidos, con herramientas de IA personalizadas para cada función empresarial. Las plataformas no-code y low-code permitirán a los usuarios sin conocimientos técnicos crear modelos de IA a partir de componentes de arrastrar y soltar, módulos plug-and-play o flujos de trabajo guiados. Como muchas de estas plataformas se basarán en LLM, los usuarios también podrán consultar un modelo de IA mediante instrucciones.
Las plataformas de machine learning automatizado (AutoML) están mejorando rápidamente, gracias a la automatización tareas como el preprocesamiento de datos, la selección de características y el ajuste de hiperparámetros. En la próxima década, el AutoML será aún más fácil de usar y accesible, lo que permitirá a las personas crear modelos de IA de alto rendimiento rápidamente sin necesidad de conocimientos especializados. Los servicios de IA basados en la nube también proporcionarán a las empresas modelos de IA prediseñados que podrán personalizarse, integrarse y escalarse según sea necesario.
Para los aficionados, las herramientas de IA accesibles fomentarán una nueva ola de innovación individual que les permitirá desarrollar aplicaciones de IA para proyectos personales o negocios paralelos.
El desarrollo de código abierto puede fomentar la transparencia, mientras que un gobierno cuidadoso y unas directrices éticas podrían ayudar a mantener unos niveles de seguridad elevados y a generar confianza en los procesos impulsados por IA. La culminación de esta facilidad de acceso podría ser un asistente virtual multimodal totalmente controlado por voz, capaz de crear activos visuales, textuales o sonoros bajo demanda.
Aunque es muy especulativo, si surge un sistema de inteligencia artificial general (IAG) para 2034, podríamos asistir al amanecer de sistemas de IA capaces de generar, organizar y refinar de forma autónoma sus propios conjuntos de datos de entrenamiento, lo que les permitiría mejorarse a sí mismos y adaptarse sin intervención humana.
A medida que la IA generativa se centraliza más dentro de las organizaciones, las empresas podrían comenzar a ofrecer "seguros contra alucinaciones de IA". A pesar de un entrenamiento exhaustivo, los modelos de IA pueden ofrecer resultados erróneos o engañosos. Estos errores suelen deberse a datos de entrenamiento insuficientes, suposiciones incorrectas o sesgos en los datos de entrenamiento.
Este tipo de seguro protegería a las instituciones financieras, el sector médico y el sector jurídico, entre otros, frente a outputs inesperados, inexactos o perjudiciales de la IA. Las aseguradoras pueden cubrir los riesgos financieros y de reputación asociados a estos errores, de forma similar a como gestionan el fraude financiero y las vulneraciones de datos.
La toma de decisiones y el modelado predictivo de la IA avanzarán hasta el punto en que los sistemas de IA funcionen como business partners estratégicos, que ayudarán a los directivos a tomar decisiones fundamentadas y a automatizar tareas complejas. Estos sistemas de IA integrarán el análisis de datos en tiempo real, conciencia contextual y conocimientos personalizados para ofrecer recomendaciones a medida, como la planificación financiera y la captación de clientes, que se alineen con los objetivos empresariales.
La mejora del PLN permite a la IA participar en conversaciones con los líderes, y ofrecerlesconsejos basados en el modelado predictivo y la planificación de escenarios. Las empresas confiarán en la IA para simular posibles resultados, gestionar la colaboración entre departamentos y perfeccionar las estrategias basándose en el aprendizaje continuo. Estos partners de la IA permitirán a las pequeñas empresas escalar con mayor rapidez y operar con una eficiencia similar a la de las grandes empresas.
La IA cuántica, gracias a las propiedades únicas de los cúbits, podría superar las limitaciones de la IA clásica al resolver problemas que antes eran irresolubles debido a las restricciones computacionales. Las simulaciones de materiales complejos, la optimización de vastas cadenas de suministro y los conjuntos de datos exponencialmente mayores podrían llegar a ser factibles en tiempo real. Esto podría transformar los campos de la investigación científica, donde la IA ampliará los límites de los descubrimientos en física, biología y climatología mediante el modelado de escenarios que los ordenadores clásicos tardarían milenios en procesar.
Un obstáculo importante en el avance de la IA ha sido la enorme cantidad de tiempo, energía y costes que implica el entrenamiento de modelos masivos, como los modelos de lenguaje de gran tamaño (LLM) y las redes neuronales. Los requisitos actuales de hardware se acercan a los límites de la infraestructura informática convencional, por lo que la innovación se centrará en mejorar el hardware o crear arquitecturas totalmente nuevas. La computación cuántica ofrece una vía prometedora para la innovación en IA, ya que podría reducir drásticamente el tiempo y los recursos necesarios para entrenar y ejecutar grandes modelos de IA.
Los modelos bitnet utilizan parámetros ternarios, un sistema de base 3 con 3 dígitos para representar la información. Este enfoque aborda el problema de la energía al permitir que la IA procese la información de forma más eficiente, al basarse en múltiples estados en lugar de en datos binarios (0 y 1). Esto podría dar lugar a cálculos más rápidos con un menor consumo energético.
Las startups respaldadas por Y Combinator y otras empresas están invirtiendo en hardware de silicio especializado adaptado a modelos bitnet, lo que podría acelerar drásticamente los tiempos de entrenamiento de la IA y reducir los costes operativos. Esta tendencia sugiere que los futuros sistemas de IA combinarán computación cuántica, modelos bitnet y hardware especializado para superar los límites computacionales.
Las regulaciones y los estándares éticos de la IA tendrán que avanzar de forma considerable para que la ubicuidad de la IA se convierta en una realidad. Impulsada por marcos como la Ley de IA de la UE, un avance clave será la creación de sistemas rigurosos de gestión de riesgos, que clasifiquen la IA en niveles de riesgo e impongan requisitos más estrictos a la IA de alto riesgo. Los modelos de IA, especialmente los generativos y a gran escala, podrían tener que cumplir normas de transparencia, solidez y ciberseguridad. Es probable que estos marcos se amplíen a nivel mundial tras la Ley de IA de la UE, que establece normas para los sectores sanitario, financiero y de infraestructuras críticas.
Las consideraciones éticas influirán en la elaboración de normativas, incluida la prohibición de sistemas que planteen riesgos inaceptables, como la puntuación social y la identificación biométrica remota en espacios públicos. Se exigirá que los sistemas de IA incluyan supervisión humana, protejan los derechos fundamentales, aborden cuestiones como la parcialidad y la imparcialidad, y garanticen una implementación responsable.
La IA que se anticipa de forma proactiva a las necesidades y toma decisiones por sí sola probablemente se convertirá en una parte fundamental de la vida personal y empresarial. La IA agentiva se refiere a sistemas compuestos por agentes especializados que operan de forma independiente, cada uno de los cuales se encarga de tareas específicas. Estos agentes interactúan con datos, sistemas y personas para completar flujos de trabajo de varios pasos, lo que permite a las empresas automatizar procesos complejos como la atención al cliente o el diagnóstico de redes. A diferencia de los modelos de lenguaje de gran tamaño (LLM) monolíticos, la IA agentiva se adapta a entornos en tiempo real, mediante algoritmos de toma de decisiones más simples y bucles de feedback para aprender y mejorar.
Una ventaja clave de la IA agentiva es su división del trabajo entre el LLM, que se encarga de las tareas generales, y los agentes específicos del dominio, que aportan una amplia experiencia. Esta división ayuda a mitigar las limitaciones del LLM. Por ejemplo, en una empresa de telecomunicaciones, un LLM puede categorizar la consulta de un cliente, mientras que los agentes especializados recuperan la información de la cuenta, diagnostican los problemas y formulan una solución en tiempo real.
Para 2034, estos sistemas de IA agentiva podrían convertirse en un elemento central para gestionar todo, desde los flujos de trabajo empresariales hasta los hogares inteligentes. Su capacidad para anticipar necesidades, tomar decisiones y aprender de su entorno de forma autónoma podría hacerlos más eficientes y rentables, lo que complementaría las capacidades generales de los LLM y aumentaría la accesibilidad de la IA en todos los sectores.
A medida que escasean los datos generados por humanos, las empresas ya están recurriendo a los datos sintéticos, es decir, conjuntos de datos artificiales que imitan patrones del mundo real sin las mismas limitaciones de recursos ni preocupaciones éticas. Este enfoque se convertirá en el estándar para el entrenamiento de la IA, lo que mejorará la precisión de los modelos a la vez que promoverá la diversidad de datos. Los datos de entrenamiento de la IA incluirán imágenes de satélite, datos biométricos, registros de audio y datos de sensores IoT.
El auge de los modelos personalizados será una tendencia clave de la IA, ya que las organizaciones utilizarán conjuntos de datos patentados para entrenar la IA a la medida de sus necesidades específicas. Estos modelos, diseñados para la generación de contenido, la interacción con los clientes y la optimización de los procesos, pueden superar a los LLM de uso general al alinearse estrechamente con los datos y el contexto únicos de la organización. Las empresas invertirán en garantizar la calidad de los datos, de forma que tanto los reales como los sintéticos cumplan estrictas normas de fiabilidad, precisión y diversidad, con el fin de mantener el rendimiento de la IA y la solidez ética.
El reto de la "IA invisible" (herramientas de IA no autorizadas utilizadas por los empleados) obligará a las organizaciones a implementar un gobierno de datos más estricto, que garantice que solo los sistemas de IA aprobados accedan a datos confidenciales y propios.
A medida que la IA continúa evolucionando, surgen varias ideas ambiciosas para abordar las limitaciones actuales y ampliar los límites de lo que la inteligencia artificial es capaz de conseguir. Uno de estos hitos es la computación pos-Moore1, que pretende ir más allá de la arquitectura tradicional de von Neumann a medida que las GPU y las TPU se acercan a sus límites físicos y prácticos.
Los modelos de IA son cada vez más complejos y requieren un uso cada vez más intensivo de los datos, por lo que se necesitan nuevos paradigmas informáticos. Las innovaciones en computación neuromórfica2, que imita la estructura neuronal del cerebro humano, están a la vanguardia de esta transición. Además, la computación óptica3, que utiliza luz en lugar de señales eléctricas para procesar la información, ofrece vías prometedoras para mejorar la eficiencia y la escalabilidad computacionales.
Otro hito significativo es el desarrollo de una Internet distribuida de la IA4, o IA federada, que prevé una infraestructura de IA distribuida y descentralizada. A diferencia de los modelos tradicionales de IA centralizada que se basan en grandes centros de datos, la IA federada opera en múltiples dispositivos y ubicaciones, y procesa los datos de forma local para mejorar la privacidad y reducir la latencia.
Al permitir que los smartphones, los dispositivos IoT y los nodos de edge computing colaboren y compartan conocimientos sin transmitir datos sin procesar, la IA federada promueve un ecosistema más seguro y escalable. La investigación actual se centra en el desarrollo de algoritmos y protocolos eficientes para una colaboración fluida entre modelos distribuidos, lo que facilita el aprendizaje en tiempo real y, al mismo tiempo, mantiene altos estándares de privacidad e integridad de los datos.
Otra área fundamental de experimentación aborda las limitaciones inherentes al mecanismo de atención de la arquitectura del transformador5. Los transformadores se basan en un mecanismo de atención con una ventana de contexto para procesar las partes relevantes de los datos de entrada, como los tokens anteriores de una conversación. Sin embargo, a medida que la ventana de contexto se amplía para incorporar más datos históricos, la complejidad computacional aumenta cuadráticamente, lo que la hace ineficaz y costosa.
Para superar este reto, los investigadores están explorando enfoques como la linealización del mecanismo de atención o la introducción de técnicas de ventana más eficientes, lo que permite a los transformadores manejar ventanas de contexto más amplias sin el aumento exponencial de los recursos informáticos. Este avance permitiría a los modelos de IA comprender e incorporar mejor interacciones pasadas más amplias, lo que daría lugar a respuestas más coherentes y relevantes desde el punto de vista contextual.
Imagínese empezar el día en 2034. Un asistente inteligente controlado por voz, vinculado a todos los aspectos de su vida, le saluda con su plan de comidas familiar para la semana, adaptado a las preferencias de cada uno. Le notificará el estado actual de su despensa, y encargará la compra a domicilio cuando sea necesario. Sus desplazamientos al trabajo ahora son automáticos: su chófer virtual navega por la ruta más eficiente para ir a trabajar, y se adapta al tráfico y a las condiciones meteorológicas en tiempo real.
En el trabajo, un partner de IA examina las tareas diarias y le proporciona información procesable, le ayuda con las tareas rutinarias y actúa como una base de datos de conocimientos dinámica y proactiva. A nivel personal, la tecnología incorporada a la IA puede elaborar entretenimiento a medida, y generar historias, música o arte visual personalizados de acuerdo con sus gustos. Si quiere aprender algo, la IA puede proporcionarle tutoriales en vídeo adaptados a su estilo de aprendizaje en forma de texto, imágenes y voz.
A medida que la adopción de la IA se extienda y la tecnología evolucione, su impacto en las operaciones globales será inmenso. Estas son algunas de las principales implicaciones de la tecnología de IA avanzada:
La IA desempeñará un doble papel en la acción climática al contribuir de forma simultánea al aumento de la demanda energética y servir como herramienta de mitigación. Los recursos informáticos necesarios para entrenar e implementar grandes modelos de IA aumentan de forma significativa el consumo de energía, lo que agrava las emisiones de carbono si las fuentes energéticas no son sostenibles. Por otro lado, la IA puede potenciar las iniciativas climáticas al optimizar el uso de la energía en diversos sectores, mejorar la elaboración de modelos y predicciones climáticas y permitir soluciones innovadoras para las energías renovables, la captura de carbono y la monitorización medioambiental.
En el sector de la fabricación, los robots con IA pueden realizar tareas complejas de ensamblaje con precisión, lo que aumenta los índices de producción y reduce los defectos. En el de la sanidad, las herramientas de diagnóstico automatizadas ayudan a los médicos a identificar enfermedades con mayor precisión y rapidez. La automatización de procesos impulsada por IA y el machine learning en finanzas, logística y experiencia del cliente pueden agilizar las operaciones, reducir los costes y mejorar la calidad del servicio. Al encargarse de las tareas repetitivas, la IA permite a los trabajadores humanos centrarse en tareas estratégicas y creativas, lo que fomenta la innovación y la productividad.
Será inevitable que el auge de la automatización impulsada por IA provoque el desplazamiento de puestos de trabajo, sobre todo en sectores que dependen en gran medida de tareas repetitivas y manuales. Funciones como la entrada de datos, el trabajo en cadenas de montaje y el servicio rutinario de atención al cliente pueden sufrir reducciones significativas a medida que las máquinas y los algoritmos se hagan cargo de estas funciones. Sin embargo, también creará oportunidades en el desarrollo de la IA, el análisis de datos y la ciberseguridad. Crecerá la demanda de habilidades de mantenimiento, supervisión y gobierno ético de la IA, lo que proporcionará vías para la recualificación del personal.
La IA generativa ha facilitado la creación de deepfakes (audios, vídeos e imágenes realistas pero falsos) que se utilizan para difundir información falsa y manipular la opinión pública. Esto plantea retos para la integridad de la información y la confianza de los medios de comunicación. Abordar esto requiere herramientas de detección avanzadas, educación pública y, posiblemente, medidas legales para responsabilizar a los creadores de deepfakes maliciosos.
Las personas antropomorfizan la IA, con la que forjan vínculos emocionales y desarrollan dinámicas sociales complejas, como se ha visto con el efecto ELIZA6 y otros compañeros de la IA. A lo largo de la próxima década, estas relaciones podrían hacerse más profundas, lo que plantearía cuestiones psicológicas y éticas. La sociedad debe promover interacciones saludables con máquinas cada vez más parecidas a los humanos y ayudar a las personas a distinguir las interacciones humanas genuinas de las impulsadas por IA.
A medida que el contenido generado por IA domina internet (se estima que representa alrededor del 50 % del material en línea), la disponibilidad de datos generados por humanos disminuye. Los investigadores predicen que para 2026 podrían agotarse los datos públicos para entrenar grandes modelos de IA. Para hacer frente a esta situación, la comunidad de la IA está explorando la generación de datos sintéticos y nuevas fuentes de datos, como los dispositivos IoT y las simulaciones, para diversificar las entradas de entrenamiento de la IA. Estas estrategias son esenciales para sostener los avances de la IA y garantizar que los modelos sigan siendo capaces en un panorama digital cada vez más saturado de datos.
A medida que la IA continúa avanzando y la atención se desplaza hacia modelos más rentables que permitan ofrecer soluciones personalizadas a particulares y empresas, la confianza y la seguridad deben seguir siendo primordiales.
watsonx.ai de IBM es una cartera de productos de IA para desarrollar, implementar y gestionar soluciones de IA que se alinean con las tendencias actuales hacia herramientas de IA más seguras, accesibles y versátiles.
watsonx.ai integra capacidades avanzadas de IA con la flexibilidad necesaria para apoyar a las empresas de todos los sectores, y las ayuda a aprovechar el poder de la IA para lograr un impacto real y no solo para estar a la moda. Al dar prioridad a la facilidad de uso y la eficiencia, watsonx.ai está a punto de convertirse en un activo indispensable para quienes deseen utilizar la IA en la próxima década.
Empiece ahora
Escuche ahora
Regístrese para descargarlo
Ver ahora