PyTorch fue desarrollado originalmente por investigadores de Meta a finales de 2016. Es un puerto Python de la antigua biblioteca Torch, cuyo núcleo era un tensor. Para 2022, momento en el que PyTorch se movió a la Linux Foundation, más de 2400 colaboradores tenían más de 150 000 proyectos utilizando PyTorch. (El machine learning de código abierto es el paradigma dominante, ya que el campo florece a partir de una amplia colaboración). Al igual que TensorFlow, PyTorch permite a los desarrolladores realizar operaciones similares a NumPy, pero utilizando GPU en lugar de CPU, lo que convierte a PyTorch en otro marco de aprendizaje profundo
“¿PyTorch o TensorFlow?” es a menudo una pregunta inicial para aquellos que se embarcan en un esfuerzo de machine learning (anteriormente, una biblioteca llamada Theano también estaba en la mezcla; quedó obsoleta en 2017). Si bien no hay una respuesta incorrecta, PyTorch se está convirtiendo en el favorito de muchos desarrolladores por su diseño flexible y tolerante ("Pythonic") y su facilidad de uso. Favorecida durante mucho tiempo entre académicos e investigadores, la industria también la utiliza cada vez más para casos de uso ambiciosos y escalables. El Autopilot de Tesla, por ejemplo, se creó con PyTorch, y la plataforma de computación en la nube de Microsoft, Azure, lo admite. PyTorch se ha vuelto tan popular que ha crecido un ecosistema de herramientas de soporte (como Torchvision y TorchText) a su alrededor. Tanto Tensorflow como Pytorch utilizan un gráfico computacional, una estructura de datos que representa el flujo de operaciones y variables durante el entrenamiento del modelo.
IBM es miembro de la Fundación PyTorch; utiliza PyTorch con su cartera de watsonx.