Sowohl KI-Inferenz als auch KI-Training beinhalten ein Modell, das Vorhersagen über Eingabedaten erstellt. Der Unterschied liegt in ihren jeweiligen Zwecken und, im Falle des KI-Trainings, in den zusätzlichen Schritten, die zur Erreichung dieses Zwecks unternommen werden.
Das Training ist der Ort, an dem das „Lernen“ im maschinellen Lernen stattfindet. Im Modelltraining trifft ein Machine-Learning-Modell Vorhersagen anhand einer Reihe von Trainingsdatenbeispielen. Beim überwachten Lernen berechnet eine Verlustfunktion den durchschnittlichen Fehler (oder „Verlust“) jeder Vorhersage, und ein Optimierungsalgorithmus wird verwendet, um die Modellparameter so zu aktualisieren, dass der Verlust reduziert wird. Dieser Prozess wird iterativ wiederholt, bis der Verlust auf ein akzeptables Niveau minimiert ist. Reinforcement Learning funktioniert ähnlich, allerdings mit dem Ziel, eine Belohnungsfunktion zu maximieren, anstatt eine Verlustfunktion zu minimieren.
Kurz gesagt, KI-Training beinhaltet in der Regel sowohl einen Vorwärtspass, bei dem das Modell als Reaktion auf jede Eingabe eine Ausgabe generiert, als auch einen Rückwärtspass, in dem potenzielle Verbesserungen der Modellparameter berechnet werden. Diese Parameter-Updates umfassen das „Wissen“ eines Modells für maschinelles Lernen.
Bei der KI-Inferenz macht das trainierte Modell dann Vorhersagen für reale Eingabedaten. Die KI-Inferenz nutzt das, was sie „gelernt“ hat – also die Aktualisierungen der Modellparameter, die vorgenommen wurden, um ihre Leistung bei den Trainingsdaten zu verbessern –, um die richtige Ausgabe für die neuen Eingabedaten abzuleiten. Im Gegensatz zum Modelltraining beinhaltet die Inferenz lediglich einen Vorwärtsdurchlauf.
Training und Inferenz sind zwar in der Regel separate, unterschiedliche Phasen, aber es ist erwähnenswert, dass sie sich nicht ganz gegenseitig ausschließen. Beispielsweise wurde der Empfehlungsalgorithmus einer Social-Media-Plattform bereits vor Ihrem Beitritt zur Plattform anhand großer Datensätze zum Nutzerverhalten trainiert und führt jedes Mal Schlussfolgerungen durch, wenn er Ihnen Inhaltsvorschläge unterbreitet. Aber dieses trainierte Modell wird auch kontinuierlich auf Ihr individuelles Verhalten abgestimmt und verfeinert seine Vorschläge basierend darauf, wie Sie persönlich mit Inhalten interagieren.