PyTorch wurde ursprünglich Ende 2016 von Forschern bei Meta entwickelt. Es handelt sich um eine Python-Portierung der älteren Torch-Bibliothek, deren Kern ein Tensor war. Bis 2022, als PyTorch zur Linux Foundation wechselte, hatten über 2.400 Mitwirkende Berichten zufolge über 150.000 Projekte mit PyTorch realisiert. (Open-Source-maschinelles Lernen ist das vorherrschende Paradigma, da das Feld durch umfassende Zusammenarbeit floriert.) Wie TensorFlow ermöglicht auch PyTorch Entwicklern die Durchführung von NumPy-ähnlichen Operationen, allerdings mit GPU statt CPU – was PyTorch zu einem weiteren Deep-Learning-Framework macht.
„PyTorch oder Tensorflow?“ ist oft eine erste Frage für diejenigen, die sich auf ein maschinelles Lernprojekt einlassen (früher gab es auch eine Bibliothek namens Theano; sie wurde 2017 eingestellt). Obwohl es keine falsche Antwort gibt, entwickelt sich PyTorch bei vielen Entwicklern aufgrund seines flexiblen und nachsichtigen („Pythonischen“) Designs und seiner Benutzerfreundlichkeit als Favorit. Die Technologie wird seit langem von Akademikern und Forschern bevorzugt, wird aber zunehmend auch für ambitionierte, skalierbare Anwendungsfälle in der Industrie eingesetzt. Teslas Autopilot wurde beispielsweise mit PyTorch entwickelt und es wird auch von Microsofts Cloud-Computing-Plattform Azure unterstützt. PyTorch ist so beliebt geworden, dass sich ein Ökosystem unterstützender Tools (wie Torchvision und TorchText) um es herum entwickelt hat. Sowohl Tensorflow als auch Pytorch verwenden ein Berechnungsdiagramm – eine Datenstruktur, die den Fluss von Operationen und Variablen während des Modelltrainings darstellt.
IBM ist Mitglied der PyTorch Foundation; es verwendet PyTorch mit seinem watsonx-Portfolio.