Hugging Face es una empresa que mantiene una enorme comunidad de código abierto del mismo nombre que crea herramientas, modelos de aprendizaje automático y plataformas para trabajar con inteligencia artificial, con un enfoque en la ciencia de datos, el machine learning y el procesamiento de lenguaje natural (NLP). Hugging Face se destaca por su biblioteca de transformadores de NLP y una plataforma que permite a los usuarios compartir modelos y conjuntos de datos.
Hugging Face ha cultivado una de las comunidades de IA más vibrantes del mundo, con usuarios que contribuyen diariamente con nuevos modelos de IA, conjuntos de datos, tutoriales e investigaciones. Ofrecen una API enriquecida que permite a los desarrolladores integrar modelos directamente en las aplicaciones, y su plataforma admite una amplia gama de tareas en muchos casos de uso e industrias. Estas son algunas de las principales ventajas de la plataforma:
Acceso a los últimos modelos
Flujos de trabajo simplificados
Despliegue y escalado sencillos
Comunidad próspera
Centrarse en la IA responsable
Hugging Face proporciona acceso a través de su Model Hub a miles de modelos previamente entrenados para tareas como reconocimiento de voz, clasificación de texto, generación de texto, resumen de texto, respuesta a preguntas, generación de imágenes y más. Model Hub se comporta como un mercado donde los usuarios pueden encontrar fácilmente modelos y descargarlos y ajustarlos con solo unas pocas líneas de código, lo que ahorra tiempo y recursos a los desarrolladores e investigadores en comparación con el entrenamiento desde cero.
Las bibliotecas Hugging Face son conocidas por ser fáciles de usar y estar bien documentadas. Los principiantes pueden ajustar rápidamente modelos potentes y realizar tareas complejas como entrenamiento distribuido, tokenización, evaluación y despliegue utilizando las herramientas Hugging Face. El acceso tanto a los fundamentos como a las herramientas avanzadas ha abierto el desarrollo de la IA a una comunidad de profesionales mucho más amplia.
Más allá del entrenamiento, Hugging Face facilita el despliegue de modelos en producción. Las herramientas Hugging Face permiten a los usuarios servir modelos en la web, aplicaciones móviles o sistemas internos sin necesidad de una profunda experiencia en infraestructura. Este paquete completo hace que la plataforma sea especialmente atractiva para nuevas empresas y empresas.
Además de toda la tecnología de fácil acceso, la vibrante comunidad de Hugging Face la ha convertido en un destino para desarrolladores, científicos de datos e investigadores. Es un lugar para que los desarrolladores sin experiencia aprendan de profesionales experimentados y hagan preguntas a personas que pueden haber enfrentado desafíos similares.
Muchos modelos Hugging Face vienen con documentación sobre sus limitaciones, sesgos y casos de uso previstos. La empresa invierte mucho en gobernanza abierta y debates dirigidos por la comunidad sobre la ética de la IA.
Antes de Hugging Face, los modelos más potentes a menudo eran difíciles de usar porque requerían experiencia especializada y recursos informáticos masivos. El código abierto de las herramientas ayudó a que estos modelos fueran más fáciles de usar, con todo el código y la documentación necesarios. Esto permitió a los investigadores, estudiantes y empresas emergentes experimentar y construir, lo que aceleró enormemente la innovación a nivel mundial. Después de Hugging Face, los desarrolladores pudieron compartir fácilmente conocimientos y tener beneficio de los esfuerzos de los demás, lo que les permitió crear mejores modelos juntos.
Este énfasis en código abierto también alentó a las empresas más grandes a compartir su trabajo, lo que permitió que todo el ecosistema se beneficiara. Microsoft ha integrado los modelos Hugging Face en sus servicios de Azure, proporcionando a los clientes empresariales acceso directo a herramientas de IA de última generación. Del mismo modo, NVIDIA ha colaborado con Hugging Face para optimizar el entrenamiento y la inferencia de modelos para GPU, ayudando a escalar los flujos de trabajo de aprendizaje profundo a conjuntos de datos masivos.
Hugging Face fue fundada por los empresarios franceses Clément Delangue, Julien Chaumond y Thomas Wolf en la ciudad de Nueva York en 2016.1 Los empresarios estaban originalmente interesados en crear chatbots para adolescentes, pero reconocieron el poder de los modelos subyacentes a la tecnología de chatbot, y se centraron en los propios modelos.
Hicieron sus herramientas internas de código abierto y lanzaron la primera versión de Hugging Face Transformers Library, que rápidamente se hizo popular entre investigadores e ingenieros. Hugging Face se convirtió en una fuente definitiva de modelos transformadores previamente entrenados y, en 2020, la empresa presentó Hugging Face Hub, su repositorio de modelos, que permitía a los usuarios cargar, descargar y compartir modelos fácilmente. Al año siguiente, lanzaron su biblioteca Datasets, que facilitó el intercambio de conjuntos de datos, y Hugging Face Spaces para desplegar demostraciones interactivas de IA. En 2022, la empresa adquirió Gradio, una biblioteca de IA de código abierto para desarrollar aplicaciones de machine learning en Python.2
Hugging Face ha lanzado herramientas para modelos multimodales, modelos de lenguaje grandes (LLM), modelos de difusión y aprendizaje por refuerzo. En 2023, Hugging Face comenzó a colaborar con IBM en watsonx.ai, Estudio de IA de IBM que permite a los usuarios entrenar, validar, ajustar y desplegar tanto el aprendizaje automático tradicional como las nuevas capacidades de IA generativa. Más tarde ese año, IBM participó en una ronda de financiación de la Serie D para Hugging Face.
Estos son los servicios principales de Hugging Face:
Hugging Face Hub es una plataforma central basada en la web donde los usuarios pueden compartir, descubrir y colaborar en modelos, conjuntos de datos y aplicaciones. Actúa como un "GitHub para IA", que aloja miles de recursos disponibles públicamente. Las páginas de modelos y conjuntos de datos incluyen documentación, ejemplos, seguimiento de versiones y demostraciones en vivo en muchos casos. The Hub también admite repositorios privados para equipos y empresas para una colaboración segura.
La biblioteca Transformers es una de las herramientas más utilizadas para NLP, visión artificial y modelos de aprendizaje profundo. Es una biblioteca de Python que los usuarios instalan en sus computadoras o servidores que proporciona código que les permite usar los modelos que encuentran en el Hub. Incluye arquitecturas de modelos, herramientas de preprocesamiento, utilidades de entrenamiento y más. Construida sobre infraestructuras/marcos populares como TensorFlow y PyTorch, la biblioteca Transformers permite a los usuarios cargar potentes modelos de machine learning (ML) como BERT, GPT y otros con solo unas pocas líneas de código. También ofrece amplias herramientas para ajustar modelos de código abierto en conjuntos de datos personalizados, lo que lo hace más útil para la investigación y la producción.
Además de Transformers y Hub, el ecosistema Hugging Face contiene bibliotecas para otras tareas, como el procesamiento de conjuntos de datos ("Conjuntos de datos"), la evaluación de modelos ("Evaluate") y demostraciones de machine learning ("Gradio").
Hugging Face wants to become your artificial BFF, TechCrunch, marzo de 2017
Gradio se une a Hugging Face!, Hugging Face, diciembre de 2021