A Hugging Face é uma empresa que mantém uma enorme comunidade de código aberto com o mesmo nome que desenvolve ferramentas, modelos de aprendizado de máquina e plataformas para trabalhar com inteligência artificial, com foco em ciência de dados, aprendizado de máquina e processamento de linguagem natural (NLP). A Hugging Face é notável por sua biblioteca Transformers de NLP e uma plataforma que permite aos usuários compartilhar modelos e conjuntos de dados.
A Hugging Face cultivou uma das comunidades de IA mais vibrantes do mundo, com usuários contribuindo diariamente com novos modelos de IA, conjunto de dados, tutoriais e pesquisas. Ela oferece uma API vasta, que permite aos desenvolvedores integrar modelos diretamente às aplicações, e sua plataforma oferece suporte a uma ampla gama de tarefas em muitos casos de uso e setores. Aqui estão algumas das principais vantagens da plataforma:
Acesso aos modelos mais recentes
Fluxos de trabalho simplificados
Implementação e escalonamento simples
Comunidade em expansão
Foco na IA responsável
A Hugging Face oferece acesso, por meio de seu Model Hub, a milhares de modelos pré-treinados para tarefas como reconhecimento de fala, classificação de texto, geração de texto, sumarização de texto, resposta a perguntas, geração de imagens e muito mais. O Model Hub se comporta como um mercado onde os usuários podem facilmente encontrar modelos e fazer download e ajuste fino, economizando tempo e recursos para desenvolvedores e pesquisadores em comparação com o treinamento a partir do zero.
As bibliotecas da Hugging Face são conhecidas por serem fáceis de usar e bem documentadas. Os novatos podem ajustar fino rapidamente modelos poderosos e executar tarefas complexas como treinamento distribuído, tokenização, avaliação e implementação usando ferramentas da Hugging Face. O acesso a fundamentos e ferramentas avançadas abriu o desenvolvimento da IA para uma comunidade muito mais ampla de profissionais.
Além do treinamento, a Hugging Face facilita implementar modelos na produção. As ferramentas da Hugging Face permitem que os usuários sirvam modelos para a web, aplicativos móveis ou sistemas internos sem a necessidade de um conhecimento profundo de infraestrutura. Essa compatibilidade full stack torna a plataforma especialmente atraente para startups e empresas.
Além de toda a tecnologia facilmente acessível, a vibrante comunidade da Hugging Face a tornou um destino para desenvolvedores, cientistas de dados e pesquisadores. É um local para desenvolvedores inexperientes aprenderem com profissionais experientes e fazerem perguntas a pessoas que já tenham enfrentado desafios semelhantes.
Muitos modelos da Hugging Face vêm com documentação sobre suas limitações, vieses e casos de uso pretendidos. A empresa investe pesadamente em governança aberta e discussões lideradas pela comunidade sobre ética de IA.
Antes da Hugging Face, os modelos mais poderosos eram geralmente difíceis de usar porque exigiam experiência especializada e muitos recursos de computação. Colocar as ferramentas em código aberto ajudou a facilitar o uso desses modelos, com todo o código e a documentação necessários. Isso permitiu que pesquisadores, estudantes e startups experimentassem e construíssem, o que acelerou enormemente a inovação globalmente. Depois da Hugging Face, os desenvolvedores puderam compartilhar conhecimento facilmente e se beneficiar dos esforços uns dos outros, permitindo que criassem modelos melhores juntos.
Essa ênfase em código aberto também incentivou empresas maiores a compartilhar seu trabalho, permitindo que todo o ecossistema se beneficie. A Microsoft integrou os modelos da Hugging Face a seus serviços do Azure, fornecendo aos clientes corporativos acesso direto a ferramentas de IA de última geração. De forma semelhante, a NVIDIA colaborou com a Hugging Face para otimizar o treinamento e a inferência de modelos para GPUs, ajudando a escalar fluxos de trabalho de deep learning para enormes conjuntos de dados.
A Hugging Face foi fundada pelos empreendedores franceses Clément Delangue, Julien Chaumond e Thomas Wolf na cidade de Nova York em 2016.1 Os empreendedores estavam originalmente interessados em construir chatbots para adolescentes, mas reconhecendo o poder dos modelos subjacentes à Tecnologia de chatbot, mudaram para os próprios modelos .
Eles implementaram o código aberto de suas ferramentas internas e lançaram a primeira versão da biblioteca Transformers da Hugging Face, que rapidamente se tornou popular entre pesquisadores e engenheiros. A Hugging Face tornou-se uma fonte definitiva para modelos de transformadores pré-treinados e, em 2020, lançou o Hugging Face Hub, seu repositório de modelos, que permitiu aos usuários carregar, baixar e compartilhar modelos com facilidade. No ano seguinte, lançou sua biblioteca de conjuntos de dados, que facilitou o compartilhamento de conjuntos de dados, e o Hugging Face Spaces para implementar demonstrações interativas de IA. Em 2022, a empresa adquiriu a Gradio, uma biblioteca de IA de código aberto para desenvolver aplicações de aprendizado de máquina em Python.2
A Hugging Face lançou ferramentas para modelos multimodais, grandes modelos de linguagem (LLMs), modelos de difusão e aprendizado por reforço. Em 2023, a Hugging Face iniciou uma colaboração com a IBM no watsonx.ai, O estúdio de IA da IBM que permite aos usuários treinar, validar, ajustar e implementar tanto ML tradicional quanto novos recursos de IA generativa. Mais tarde naquele ano, a IBM participou de uma rodada de financiamento de Série D para a Hugging Face.
Estes são os principais serviços da Hugging Face:
O Hugging Face Hub é uma plataforma central baseada na web onde os usuários podem compartilhar, descobrir e colaborar em modelos, conjuntos de dados e aplicações. Ele atua como um "GitHub para IA", hospedando milhares de recursos disponíveis publicamente. As páginas de modelo e conjunto de dados incluem documentação, exemplos, rastreamento de versão e demonstrações ao vivo em muitos casos. O Hub também é compatível com repositórios privados para equipes e empresas para colaboração segura.
A biblioteca Transformers é uma das ferramentas mais amplamente utilizadas para modelos de NLP, computer vision e deep learning. É uma biblioteca Python que os usuários instalam em seus computadores ou servidores que fornece código que lhes permite usar os modelos que encontram no Hub. Ele inclui arquiteturas de modelos, ferramentas de pré-processamento, utilitários de treinamento e muito mais. Desenvolvida em frameworks populares como PyTorch e TensorFlow, a biblioteca Transformers permite que os usuários carreguem modelos de ML poderosos, como BERT, GPT e outros, com apenas algumas linhas de código. Ela também oferece ferramentas abrangentes para realizar o ajuste fino de modelos de código aberto em conjuntos de dados personalizados, tornando-a mais útil para pesquisa e produção.
Além da Transformers e do Hub, o ecossistema da Hugging Face contém bibliotecas para outras tarefas, como processamento de conjuntos de dados ("Datasets"), avaliação de modelos ("Evaluate") e demonstrações de aprendizado de máquina ("Gradio").
Hugging Face wants to become your artificial BFF, TechCrunch, março de 2017
Gradio is joining Hugging Face!, Hugging Face, dezembro de 2021