Hugging Face ist ein Unternehmen, das eine riesige Open-Source-Community gleichen Namens unterhält, die Tools, maschinelle Lernmodelle und Plattformen für die Arbeit mit künstlicher Intelligenz entwickelt, wobei der Schwerpunkt auf Data Science, maschinellem Lernen und der Verarbeitung natürlicher Sprache (NLP) liegt. Hugging Face zeichnet sich durch seine NLP-Transformer-Bibliothek und eine Plattform aus, die es Benutzern ermöglicht, Modelle und Datensätze zu teilen.
Hugging Face hat eine der dynamischsten KI-Communitys der Welt aufgebaut, in der Benutzer täglich neue KI-Modelle, Datensätze, Tutorials und Forschung beisteuern. Sie bieten eine umfangreiche API, die es Entwicklern ermöglicht, Modelle direkt in Anwendungen zu integrieren, und ihre Plattform unterstützt eine Vielzahl von Aufgaben in vielen Anwendungsfällen und Branchen. Hier sind einige der Hauptvorteile der Plattform:
Zugriff auf die neuesten Modelle
Vereinfachte Workflows
Einfache Bereitstellung und Skalierung
Eine blühende Community
Konzentrieren Sie sich auf verantwortungsvolle KI
Hugging Face bietet über seinen Model Hub Zugriff auf Tausende von vortrainierten Modellen für Aufgaben wie Spracherkennung, Textklassifizierung, Textgenerierung, Textzusammenfassung, Beantwortung von Fragen, Bildgenerierung und vieles mehr. Der Model Hub verhält sich wie ein Marktplatz, auf dem Benutzer ganz einfach Modelle finden und diese mit nur wenigen Zeilen Code herunterladen und anpassen können. So sparen Entwickler und Forscher Zeit und Ressourcen im Vergleich zu einer Ausbildung von Grund auf.
Hugging-Face-Bibliotheken sind dafür bekannt, dass sie benutzerfreundlich und gut dokumentiert sind. Anfänger können leistungsstarke Modelle schnell feinabstimmen und komplexe Aufgaben wie verteiltes Training, Tokenisierung, Bewertung und Bereitstellung mithilfe der Tools von Hugging Face ausführen. Der Zugang zu Grundlagen und fortgeschrittenen Tools hat die KI-Entwicklung für eine viel größere Gemeinschaft von Anwendern geöffnet.
Über das Training hinaus erleichtert Hugging Face das Bereitstellen von Modellen in der Produktion. Mit den Tools auf Hugging Face können Benutzer Modelle im Web, in mobilen Apps oder in internen Systemen bereitstellen, ohne dass sie über fundierte Infrastrukturkenntnisse verfügen müssen. Dieser Full-Stack-Support macht die Plattform besonders attraktiv für Startups und Unternehmen.
Abgesehen von der leicht zugänglichen Technologie hat sich Hugging Face durch seine lebendige Community zu einem Ziel für Entwickler, Data Scientists und Forscher entwickelt. Hier können unerfahrene Entwickler von erfahrenen Praktikern lernen und Fragen an Leute stellen, die vielleicht schon vor ähnlichen Herausforderungen standen.
Viele Modelle von Hugging Face werden mit einer Dokumentation über ihre Einschränkungen, Verzerrungen und beabsichtigten Anwendungsfälle geliefert. Das Unternehmen investiert stark in eine offene Governance und in von der Community geführte Diskussionen über KI-Ethik.
Vor Hugging Face waren die leistungsstärksten Modelle für die Menschen oft schwer zu bedienen, da sie spezielles Fachwissen und massive Computerressourcen erforderten. Durch die Bereitstellung von Open-Source-Lösungen für die Tools wurde die Verwendung dieser Modelle mit dem gesamten erforderlichen Code und der gesamten Dokumentation benutzerfreundlicher. Dies ermöglichte Forschern, Studenten und Startups zu experimentieren und zu entwickeln, was die Innovation weltweit massiv beschleunigte. Nach Hugging Face konnten die Entwickler problemlos Wissen austauschen und von den Bemühungen der anderen profitieren, so dass sie gemeinsam bessere Modelle erstellen konnten.
Dieser Schwerpunkt auf Open Source ermutigte auch größere Unternehmen, ihre Arbeit zu teilen, so dass das gesamte Ökosystem davon profitieren konnte. Microsoft hat Modelle von Hugging Face in seine Azure-Dienste integriert und bietet damit Unternehmenskunden direkten Zugang zu modernsten KI-Tools. In ähnlicher Weise hat NVIDIA mit Hugging Face zusammengearbeitet, um das Modelltraining und die Inferenz für GPUs zu optimieren und die Skalierung von Deep-Learning-Workflows auf große Datensätze zu unterstützen.
Hugging Face wurde 2016 von den französischen Unternehmern Clément Delangue, Julien Chaumond und Thomas Wolf in New York City gegründet.1 Ursprünglich waren die Unternehmer daran interessiert, Chatbots für Teenager zu entwickeln, aber sie erkannten die Macht der Modelle, die der Chatbot-Technologie zugrunde liegen, und wandten sich den Modellen selbst zu.
Sie öffneten ihre internen Tools und brachten die erste Version der Hugging Face Transformers Library auf den Markt, die bei Forschern und Ingenieuren schnell sehr beliebt wurde. Hugging Face wurde zu einer maßgeblichen Quelle für vortrainierte Transformer-Modelle. Im Jahr 2020 führte das Unternehmen den Hugging Face Hub ein, sein Modell-Repository, das es Benutzern ermöglichte, Modelle einfach hochzuladen, herunterzuladen und zu teilen. Im darauffolgenden Jahr brachten sie ihre Datasets-Bibliothek auf den Markt, die den Austausch von Datensätzen erleichterte, sowie Hugging Face Spaces für die Bereitstellung interaktiver KI-Demos. Im Jahr 2022 erwarb das Unternehmen Gradio, eine Open-Source-KI-Bibliothek für die Entwicklung von Anwendungen für maschinelles Lernen in Python.2
Hugging Face hat Tools für multimodale Modelle, große Sprachmodelle (LLMs), Diffusionsmodelle und Reinforcement Learning veröffentlicht. Im Jahr 2023 begann Hugging Face mit IBM an watsonx.ai zusammenzuarbeiten, Das KI-Studio von IBM, mit dem Benutzer sowohl herkömmliche ML- als auch damals neue generative KI-Funktionen trainieren, validieren, abstimmen und einsetzen können. Später im selben Jahr nahm IBM an einer Serie-D-Finanzierungsrunde für Hugging Face teil.
Hier sind die wichtigsten Dienstleistungen von Hugging Face:
Hugging Face Hub ist eine zentrale webbasierte Plattform, auf der Benutzer Modelle, Datensätze und Anwendungen teilen, entdecken und gemeinsam bearbeiten können. Er fungiert als „GitHub für KI“ und hostet Tausende öffentlich verfügbarer Ressourcen. Modell- und Datensatzseiten umfassen in vielen Fällen Dokumentation, Beispiele, Versionsverfolgung und Live-Demos. Der Hub unterstützt auch private Repositorys für Teams und Unternehmen für eine sichere Zusammenarbeit.
Die Transformers-Bibliothek ist eines der am häufigsten verwendeten Tools für Modelle von NLP, Computer Vision und Deep Learning. Es handelt sich um eine Python-Bibliothek, die Benutzer auf ihren Computern oder Servern installieren und die ihnen Code zur Verfügung stellt, mit dem sie die Modelle, die sie im Hub finden, nutzen können. Sie umfasst Modellarchitekturen, Vorverarbeitungswerkzeuge, Trainingsprogramme und mehr. Die Transformers-Bibliothek basiert auf beliebten Frameworks wie PyTorch und TensorFlow und ermöglicht es Benutzern, leistungsstarke ML-Modelle wie BERT, GPT und andere mit nur wenigen Codezeilen zu laden. Es bietet auch umfangreiche Tools für die Feinabstimmung von Open-Source-Modellen an benutzerdefinierten Datensätzen, was es für Forschung und Produktion nützlicher macht.
Zusätzlich zu Transformers und dem Hub enthält das Ökosystem von Hugging Face Bibliotheken für andere Aufgaben, wie die Verarbeitung von Datensätzen („Datasets“), die Modellevaluierung („Evaluate“) und Demos zum maschinellen Lernen („Gradio“).
Hugging Face wants to become your artificial BFF, TechCrunch, März 2017
Gradio is joining Hugging Face!, Hugging Face, Dezember 2021