Was ist Hugging Face?

Logo von Hugging Face

Autoren

Cole Stryker

Staff Editor, AI Models

IBM Think

Was ist Hugging Face?

Hugging Face ist ein Unternehmen, das eine riesige Open-Source-Community gleichen Namens unterhält, die Tools, maschinelle Lernmodelle und Plattformen für die Arbeit mit künstlicher Intelligenz entwickelt, wobei der Schwerpunkt auf Data Science, maschinellem Lernen und der Verarbeitung natürlicher Sprache (NLP) liegt. Hugging Face zeichnet sich durch seine NLP-Transformer-Bibliothek und eine Plattform aus, die es Benutzern ermöglicht, Modelle und Datensätze zu teilen.

3D-Design aus Kugeln, die auf einer Schiene rollen

Die neuesten Erkenntnisse und Insights zu KI

Entdecken Sie von Experten kuratierte Erkenntnisse und Neuigkeiten zu KI, Cloud und mehr im wöchentlichen Newsletter Think. 

Vorteile der Verwendung von Hugging Face

Hugging Face hat eine der dynamischsten KI-Communitys der Welt aufgebaut, in der Benutzer täglich neue KI-Modelle, Datensätze, Tutorials und Forschung beisteuern. Sie bieten eine umfangreiche API, die es Entwicklern ermöglicht, Modelle direkt in Anwendungen zu integrieren, und ihre Plattform unterstützt eine Vielzahl von Aufgaben in vielen Anwendungsfällen und Branchen. Hier sind einige der Hauptvorteile der Plattform:

  • Zugriff auf die neuesten Modelle

  • Vereinfachte Workflows

  • Einfache Bereitstellung und Skalierung

  • Eine blühende Community

  • Konzentrieren Sie sich auf verantwortungsvolle KI

Vorteile der Verwendung von Hugging Face

Zugriff auf die neuesten Modelle

Hugging Face bietet über seinen Model Hub Zugriff auf Tausende von vortrainierten Modellen für Aufgaben wie Spracherkennung, Textklassifizierung, Textgenerierung, Textzusammenfassung, Beantwortung von Fragen, Bildgenerierung und vieles mehr. Der Model Hub verhält sich wie ein Marktplatz, auf dem Benutzer ganz einfach Modelle finden und diese mit nur wenigen Zeilen Code herunterladen und anpassen können. So sparen Entwickler und Forscher Zeit und Ressourcen im Vergleich zu einer Ausbildung von Grund auf.

Vereinfachte Workflows

Hugging-Face-Bibliotheken sind dafür bekannt, dass sie benutzerfreundlich und gut dokumentiert sind. Anfänger können leistungsstarke Modelle schnell feinabstimmen und komplexe Aufgaben wie verteiltes Training, Tokenisierung, Bewertung und Bereitstellung mithilfe der Tools von Hugging Face ausführen. Der Zugang zu Grundlagen und fortgeschrittenen Tools hat die KI-Entwicklung für eine viel größere Gemeinschaft von Anwendern geöffnet.

Einfache Bereitstellung und Skalierung

Über das Training hinaus erleichtert Hugging Face das Bereitstellen von Modellen in der Produktion. Mit den Tools auf Hugging Face können Benutzer Modelle im Web, in mobilen Apps oder in internen Systemen bereitstellen, ohne dass sie über fundierte Infrastrukturkenntnisse verfügen müssen. Dieser Full-Stack-Support macht die Plattform besonders attraktiv für Startups und Unternehmen.

Eine blühende Community

Abgesehen von der leicht zugänglichen Technologie hat sich Hugging Face durch seine lebendige Community zu einem Ziel für Entwickler, Data Scientists und Forscher entwickelt. Hier können unerfahrene Entwickler von erfahrenen Praktikern lernen und Fragen an Leute stellen, die vielleicht schon vor ähnlichen Herausforderungen standen.

Konzentrieren Sie sich auf verantwortungsvolle KI

Viele Modelle von Hugging Face werden mit einer Dokumentation über ihre Einschränkungen, Verzerrungen und beabsichtigten Anwendungsfälle geliefert. Das Unternehmen investiert stark in eine offene Governance und in von der Community geführte Diskussionen über KI-Ethik.

Mixture of Experts | 12. Dezember, Folge 85

KI entschlüsseln: Wöchentlicher Nachrichtenüberblick

Schließen Sie sich unserer erstklassigen Expertenrunde aus Ingenieuren, Forschern, Produktführern und anderen an, die sich durch das KI-Rauschen kämpfen, um Ihnen die neuesten KI-Nachrichten und Erkenntnisse zu liefern.

Der Open-Source-Unterschied

Vor Hugging Face waren die leistungsstärksten Modelle für die Menschen oft schwer zu bedienen, da sie spezielles Fachwissen und massive Computerressourcen erforderten. Durch die Bereitstellung von Open-Source-Lösungen für die Tools wurde die Verwendung dieser Modelle mit dem gesamten erforderlichen Code und der gesamten Dokumentation benutzerfreundlicher. Dies ermöglichte Forschern, Studenten und Startups zu experimentieren und zu entwickeln, was die Innovation weltweit massiv beschleunigte. Nach Hugging Face konnten die Entwickler problemlos Wissen austauschen und von den Bemühungen der anderen profitieren, so dass sie gemeinsam bessere Modelle erstellen konnten.

Dieser Schwerpunkt auf Open Source ermutigte auch größere Unternehmen, ihre Arbeit zu teilen, so dass das gesamte Ökosystem davon profitieren konnte. Microsoft hat Modelle von Hugging Face in seine Azure-Dienste integriert und bietet damit Unternehmenskunden direkten Zugang zu modernsten KI-Tools. In ähnlicher Weise hat NVIDIA mit Hugging Face zusammengearbeitet, um das Modelltraining und die Inferenz für GPUs zu optimieren und die Skalierung von Deep-Learning-Workflows auf große Datensätze zu unterstützen.

Geschichte von Hugging Face

Hugging Face wurde 2016 von den französischen Unternehmern Clément Delangue, Julien Chaumond und Thomas Wolf in New York City gegründet.1 Ursprünglich waren die Unternehmer daran interessiert, Chatbots für Teenager zu entwickeln, aber sie erkannten die Macht der Modelle, die der Chatbot-Technologie zugrunde liegen, und wandten sich den Modellen selbst zu.

Sie öffneten ihre internen Tools und brachten die erste Version der Hugging Face Transformers Library auf den Markt, die bei Forschern und Ingenieuren schnell sehr beliebt wurde. Hugging Face wurde zu einer maßgeblichen Quelle für vortrainierte Transformer-Modelle. Im Jahr 2020 führte das Unternehmen den Hugging Face Hub ein, sein Modell-Repository, das es Benutzern ermöglichte, Modelle einfach hochzuladen, herunterzuladen und zu teilen. Im darauffolgenden Jahr brachten sie ihre Datasets-Bibliothek auf den Markt, die den Austausch von Datensätzen erleichterte, sowie Hugging Face Spaces für die Bereitstellung interaktiver KI-Demos. Im Jahr 2022 erwarb das Unternehmen Gradio, eine Open-Source-KI-Bibliothek für die Entwicklung von Anwendungen für maschinelles Lernen in Python.2

Hugging Face hat Tools für multimodale Modelle, große Sprachmodelle (LLMs), Diffusionsmodelle und Reinforcement Learning veröffentlicht. Im Jahr 2023 begann Hugging Face mit IBM an watsonx.ai zusammenzuarbeiten, Das KI-Studio von IBM, mit dem Benutzer sowohl herkömmliche ML- als auch damals neue generative KI-Funktionen trainieren, validieren, abstimmen und einsetzen können. Später im selben Jahr nahm IBM an einer Serie-D-Finanzierungsrunde für Hugging Face teil.

Dienstleistungen von Hugging Face

Hier sind die wichtigsten Dienstleistungen von Hugging Face:

Hugging Face Hub

Hugging Face Hub ist eine zentrale webbasierte Plattform, auf der Benutzer Modelle, Datensätze und Anwendungen teilen, entdecken und gemeinsam bearbeiten können. Er fungiert als „GitHub für KI“ und hostet Tausende öffentlich verfügbarer Ressourcen. Modell- und Datensatzseiten umfassen in vielen Fällen Dokumentation, Beispiele, Versionsverfolgung und Live-Demos. Der Hub unterstützt auch private Repositorys für Teams und Unternehmen für eine sichere Zusammenarbeit.

Transformers-Bibliothek

Die Transformers-Bibliothek ist eines der am häufigsten verwendeten Tools für Modelle von NLP, Computer Vision und Deep Learning. Es handelt sich um eine Python-Bibliothek, die Benutzer auf ihren Computern oder Servern installieren und die ihnen Code zur Verfügung stellt, mit dem sie die Modelle, die sie im Hub finden, nutzen können. Sie umfasst Modellarchitekturen, Vorverarbeitungswerkzeuge, Trainingsprogramme und mehr. Die Transformers-Bibliothek basiert auf beliebten Frameworks wie PyTorch und TensorFlow und ermöglicht es Benutzern, leistungsstarke ML-Modelle wie BERT, GPT und andere mit nur wenigen Codezeilen zu laden. Es bietet auch umfangreiche Tools für die Feinabstimmung von Open-Source-Modellen an benutzerdefinierten Datensätzen, was es für Forschung und Produktion nützlicher macht.

Weitere Bibliotheken

Zusätzlich zu Transformers und dem Hub enthält das Ökosystem von Hugging Face Bibliotheken für andere Aufgaben, wie die Verarbeitung von Datensätzen („Datasets“), die Modellevaluierung („Evaluate“) und Demos zum maschinellen Lernen („Gradio“).

Fußnoten:
  1. Hugging Face wants to become your artificial BFF, TechCrunch, März 2017

  2. Gradio is joining Hugging Face!, Hugging Face, Dezember 2021