PyTorch a été développé à l’origine par des chercheurs de Meta fin 2016. Il s’agit d’un portage en Python de l’ancienne bibliothèque Torch, dont le cœur est un tenseur. En 2022, au moment où PyTorch s’est déplacé vers la Fondation Linux, plus de 2 400 contributeurs avaient signalé plus de 150 000 projets utilisant PyTorch. (Le machine learning open source est le paradigme dominant, puisque le domaine prospère grâce à une collaboration étendue.) Comme TensorFlow, PyTorch permet aux développeurs d’effectuer des opérations similaires à NumPy, mais en utilisant des GPU au lieu de CPU, ce qui en fait un autre framework d’apprentissage profond.
« PyTorch ou TensorFlow ? » est souvent une première question pour ceux qui se lancent dans un projet de machine learning (anciennement, une bibliothèque appelée Theano était également incluse au départ ; elle a été abandonnée en 2017). Bien qu’il n’y ait pas de mauvaise réponse, PyTorch est en train de devenir l’un des outils préférés de nombreux développeurs pour sa conception flexible et sa tolérance (« pythonique ») et sa facilité d’utilisation. Depuis longtemps privilégiée par les universitaires et les chercheurs, le secteur l’utilise de plus en plus pour des cas d’utilisation ambitieux et évolutifs également. L’Autopilot de Tesla, par exemple, a été créé à l’aide de PyTorch, et la plateforme de cloud computing de Microsoft Azure le prend en charge. PyTorch est devenu si populaire qu’un écosystème d’outils de support (comme Torchvision et TorchText) s’est développé autour de lui. Tensorflow et Pytorch utilisent tous deux un graphique de calcul, une structure de données qui représente le flux des opérations et des variables lors de l’entraînement du modèle.
IBM est membre de la PyTorch Foundation et utilise PyTorch avec son portefeuille watsonx.