Hugging Faceは、モデル・ハブを通じて、音声認識、テキスト分類、テキスト生成、テキスト要約、質問応答、画像生成などのタスク用の何千もの事前トレーニング済みモデルへのアクセスを提供します。モデル・ハブはマーケットプレイスのように動作し、ユーザーはモデルを簡単に見つけてダウンロードし、わずか数行のコードでファイン・チューニングできるため、ゼロからトレーニングする場合と比較して、開発者と研究者の時間とリソースを節約できます。
Hugging Faceのライブラリーは、ユーザーフレンドリーで、ドキュメントが充実していることで知られています。初心者でも、Hugging Faceツールを使用して強力なモデルをファイン・チューニングし、分散トレーニング、トークン化、評価、デプロイメントなどの複雑なタスクを実行できます。基礎ツールと高度なツールの両方にアクセスできることで、AI開発は非常に多彩な実務者コミュニティーに開かれています。
Hugging Faceを使用すると、トレーニングだけでなく、モデルを本番環境に簡単にデプロイできます。Hugging Faceツールを使用すると、ユーザーはインフラストラクチャーに関する深い知識を必要とせずに、Web、モバイル・アプリケーション、または社内システムにモデルを提供できます。このフルスタック・サポートにより、このプラットフォームはスタートアップ企業やエンタープライズにとって特に魅力的になっています。
すぐに利用できるすべてのテクノロジーとは別に、開発者、データサイエンティスト、研究者が多くがHugging Faceの活気あるコミュニティーを利用しています。このコミュニティーでは、経験の浅い開発者が経験豊富な実践者から学び、すでに同様の課題に直面したことのある人々に質問することができます。
多くのHugging Faceモデルには、制限、バイアス、意図されたユースケースに関するドキュメンテーションが付属しています。同社は、オープン・ガバナンスと、AI倫理に関するコミュニティー主導の議論に多額の投資を行っています。
Hugging Faceが登場する前は、最も強力なモデルは、専門知識と膨大なコンピューティング・リソースが必要だったため、人々が使用するのが困難なことがよくありました。ツールをオープンソース化することで、必要なコードとドキュメントがすべて揃い、これらのモデルが使いやすくなりました。これにより、研究者、学生、スタートアップ企業が実験や構築を行うことができるようになり、世界規模でイノベーションが大幅に加速しました。Hugging Face登場後、開発者は知識を簡単に共有し、互いの取り組みからメリットを受けることができ、より良いモデルを共同で作ることができるようになりました。
このようにオープンソースに重点を置くことで、大企業も成果を共有するようになり、エコシステム全体にメリットをもたらすことができました。Microsoftは、Hugging Faceモデルを自社のAzureサービスに統合し、企業顧客が最先端のAIツールに直接アクセスできるようにしています。同様に、NVIDIAはHugging Faceと連携してGPUのモデル・トレーニングと推論を最適化し、ディープラーニングのワークフローを大規模なデータセットに拡張できるようにしています。
Hugging Faceは、2016年にニューヨーク市でフランスの起業家Clément Delangue氏、Julien Chaumond氏、Thomas Wolf氏によって設立されました。1 起業家たちはもともと、10代の若者向けのチャットボットの構築に興味を持っていましたが、チャットボット・テクノロジーの基盤となるモデルの力を認識し、モデルそのものに方向転換しました。
チームは社内ツールをオープンソース化し、Hugging Face Transformersライブラリーの最初のバージョンを立ち上げました。これはすぐに研究者やエンジニアの間で人気となりました。Hugging Faceは事前トレーニング済みのTransformerモデルの信頼できるソースとなり、2020年にモデル・リポジトリーであるHugging Face Hubを導入しました。これにより、ユーザーはモデルを簡単にアップロード、ダウンロード、共有できるようになりました。翌年には、データセットの共有を容易にするデータセット・ライブラリーと、対話型AIデモをデプロイするためのHugging Face Spacesを立ち上げました。2022年には、Pythonで機械学習アプリケーションを開発するためのオープンソースAIライブラリーであるGradioを買収しました。2
Hugging Faceは、マルチモーダル・モデル、大規模言語モデル(LLM)、拡散モデル、強化学習用のツールをリリースしました。2023年、Hugging Faceはwatsonx.aiでIBMとの協働を開始しました。watsonx.aiは、ユーザーが従来のMLと当時の新しい生成AI機能の両方をトレーニング、検証、チューニング、デプロイできるようにするIBMのAIスタジオです。その年の後半、IBMはHugging FaceのシリーズD資金調達ラウンドに参加しました。
Hugging Faceの主なサービスは次のとおりです。
Hugging Face Hubは、ユーザーがモデルやデータセット、アプリケーションを共有、発見、共同作業できるWebベースの中央プラットフォームです。「AIのためのGitHub」のように機能し、何千もの公開参考情報をホストしています。モデルおよびデータセットのページには、多くの場合、ドキュメンテーション、例、バージョン追跡、ライブ・デモが含まれています。このハブは、安全なコラボレーションのために、チームや企業向けのプライベート・リポジトリーもサポートしています。
Transformerライブラリーは、NLP、コンピューター・ビジョン、ディープラーニング・モデルで最も広く使用されているツールの1つです。これは、ユーザーがコンピューターまたはサーバーにインストールするPythonライブラリーで、Hubで見つけたモデルを使用できるようにするコードを提供します。これには、モデル・アーキテクチャー、前処理ツール、トレーニング・ユーティリティーなどが含まれます。PyTorchやTensorFlowなどの一般的なフレームワーク上に構築されたTransformerライブラリーを使用すると、ユーザーはわずか数行のコードでBERT、GPTなどの強力なMLモデルを読み込むことができます。また、カスタム・データセットでオープンソース・モデルをファイン・チューニングするための広範なツールも提供しており、研究や制作にさらに役立ちます。
TransformerとHubに加えて、Hugging Faceエコシステムには、データセット処理(「Datasets」)、モデル評価(「Evaluate」)、機械学習デモ(「Gradio」)など、他のタスクのためのエコシステム・ライブラリーが含まれています。
「Hugging Face Wants to be your artificial BFF」、TechCrunch、2017年3月
「Gradio is joining Hugging Face!」、Hugging Face社、2021年12月