Hugging Face 라이브러리는 사용자 친화적이고 잘 문서화되어 있습니다. 초보자도 Hugging Face 도구를 사용하여 강력한 모델을 빠르게 미세 조정하고 분산 학습, 토큰화, 평가 및 배포와 같은 복잡한 작업을 수행할 수 있습니다. 기본 사항과 고급 도구 모두에 액세스할 수 있어서 훨씬 더 광범위한 실무자 커뮤니티도 AI 개발을 할 수 있게 되었습니다.
학습 외에도 Hugging Face를 사용하면 모델을 프로덕션 단계로 쉽게 배포할 수 있습니다. Hugging Face 도구를 사용하면 사용자가 심층적인 인프라 배경 지식 없이도 웹, 모바일 앱 또는 내부 시스템에 모델을 제공할 수 있습니다. 이 플랫폼은 풀 스택 지원으로 인해 특히 스타트업과 기업에게 매력적입니다.
간편하게 접근할 수 있는 모든 기술 외에도 Hugging Face의 활발한 커뮤니티는 개발자, 데이터 과학자 및 연구원이 자주 찾는 곳이 되었습니다. 이 커뮤니티는 경험이 일천한 개발자가 노련한 실무자에게 배우고 이미 비슷한 문제를 겪었을 가능성이 있는 사람들에게 질문할 수 있는 곳입니다.
많은 Hugging Face 모델은 제한 사항, 편향 및 의도된 사용 사례가 설명된 문서와 함께 제공됩니다. 이 회사는 AI 윤리에 대한 개방형 거버넌스와 커뮤니티가 주도하는 토론에 막대한 투자를 하고 있습니다.
Hugging Face 이전에는 가장 강력한 모델은 많은 경우 전문 지식과 방대한 컴퓨팅 리소스를 필요로 했기 때문에 사람들이 사용하기 어려웠습니다. 도구를 오픈 소싱하면 필요한 모든 코드와 문서가 함께 제공되므로 이러한 모델을 더 쉽게 사용할 수 있었습니다. 이를 통해 연구원, 학생 및 스타트업이 다양하게 실험하고 구축할 수 있었으며, 전 세계적으로 혁신이 크게 가속화되었습니다. Hugging Face 이후 개발자들은 간편하게 지식을 공유하고 서로의 노력을 통해 더 나은 모델을 만들 수 있었습니다.
이러한 오픈 소스의 강조로 인해 대기업도 작업물을 공유하게 되어 에코시스템 전체가 혜택을 누리게 되었습니다. Microsoft는 Hugging Face 모델을 Azure 서비스에 통합하여 기업 고객에게 최첨단 AI 도구에 대한 직접 액세스를 제공합니다. 마찬가지로 NVIDIA는 Hugging Face와 협력하여 GPU의 모델 학습 및 추론을 최적화하여 딥 러닝 워크플로를 대규모 데이터 세트로 확장할 수 있도록 지원합니다.
Hugging Face는 프랑스 기업가인 Clément Delangue, Julien Chaumond, Thomas Wolf에 의해 2016년 뉴욕에서 설립되었습니다.1 이 기업가들은 원래 10대를 위한 챗봇을 구축하는 데 관심이 있었지만, 챗봇 기술의 기반이 되는 모델의 힘을 인식하고 모델 자체로 전환했습니다.
NVIDIA는 내부 도구를 오픈 소싱하고 Hugging Face Transformers Library의 첫 번째 버전을 출시하여 연구원과 엔지니어에게 빠르게 인기를 얻었습니다. Hugging Face는 사전 교육된 트랜스포머 모델의 확실한 소스가 되었으며, 2020년에는 사용자가 모델을 쉽게 업로드하고, 다운로드하고 공유할 수 있는 모델 리포지토리인 Hugging Face Hub를 출시했습니다. 이듬해에는 데이터 세트를 더 쉽게 공유할 수 있는 데이터 세트 라이브러리와 대화형 AI 데모를 배포하기 위한 Hugging Face Spaces를 출시했습니다. 2022년에 이 회사는 Python으로 머신 러닝 애플리케이션을 개발하기 위한 오픈 소스 AI 라이브러리인 Gradio를 인수했습니다.2
Hugging Face는 다중 모드 모델, 대규모 언어 모델(LLM), 확산 모델 및 강화 학습을 위한 도구를 출시했습니다. 2023년, Hugging Face는 IBM과 watsonx.ai에 관한 협업을 시작했습니다. watsonx.ai는 사용자가 기존 ML과 새로운 생성형 AI 기능을 모두 훈련, 검증, 조정 및 배포할 수 있는 IBM의 AI 스튜디오입니다. 그해 말, IBM은 Hugging Face의 시리즈 D 펀딩 라운드에 참여했습니다.
Hugging Face의 주요 서비스는 다음과 같습니다.
Hugging Face Hub는 사용자가 모델, 데이터 세트 및 애플리케이션을 공유, 검색 및 협업할 수 있는 중앙 웹 기반 플랫폼입니다. 이는 공개적으로 사용 가능한 수천 개의 리소스를 호스팅하는 "AI용 GitHub"처럼 작동합니다. 모델 및 데이터 세트 페이지에는 문서, 예제, 버전 추적 및 라이브 데모가 포함되어 있는 경우가 많습니다. 또한 Hub는 안전한 협업을 위해 팀 및 기업용 비공개 리포지토리를 지원합니다.
Transformers 라이브러리는 NLP, 컴퓨팅 비전 및 딥 러닝 모델에 가장 널리 사용되는 도구 중 하나입니다. 사용자가 컴퓨터나 서버에 설치하는 Python 라이브러리로, 허브에서 찾은 모델을 사용할 수 있는 코드를 제공합니다. 여기에는 모델 아키텍처, 전처리 도구, 학습 유틸리티 등이 포함됩니다. PyTorch 및 TensorFlow와 같은 널리 사용되는 프레임워크를 기반으로 구축된 Transformers 라이브러리를 사용하면 사용자는 단 몇 줄의 코드로 BERT, GPT 등 강력한 ML 모델을 로드할 수 있습니다. 또한 맞춤 데이터 세트에 대한 오픈 소스 모델을 미세 조정할 수 있는 광범위한 도구를 제공하므로 연구 및 생산에 더욱 유용합니다.
Hugging Face 에코시스템에는 트랜스포머와 허브 외에도 데이터 세트 처리("Datasets"), 모델 평가("Evaluate"), 머신 러닝 데모("Gradio") 등 다른 작업을 위한 라이브러리가 포함되어 있습니다.
Hugging Face wants to become your artificial BFF, TechCrunch, 2017년 3월
Gradio is joining Hugging Face!, Hugging Face, 2021년 12월