PyTorch fue desarrollado originalmente por investigadores de Meta a finales de 2016. Es un puerto Python de la antigua biblioteca Torch, en cuyo núcleo había un tensor. En 2022, cuando PyTorch pasó a formar parte de la Fundación Linux, más de 2400 colaboradores habían realizado, según se informa, más de 150 000 proyectos utilizando PyTorch. (El machine learning de código abierto es el paradigma dominante, ya que el campo florece gracias a una amplia colaboración). Al igual que TensorFlow, PyTorch permite a los desarrolladores realizar operaciones similares a NumPy, pero utilizando GPU en lugar de CPU, lo que convierte a PyTorch en otro marco de deep learning.
"¿PyTorch o TensorFlow?" suele ser la primera pregunta que se plantean quienes se inician en el machine learning (antes también existía una biblioteca llamada Theano, pero dejó de utilizarse en 2017). Aunque no hay una respuesta incorrecta, PyTorch se está convirtiendo en el favorito de muchos desarrolladores por su diseño flexible y tolerante ("Pythonic") y su facilidad de uso. Desde hace tiempo muy apreciado por académicos e investigadores, la industria también lo utiliza cada vez más para casos de uso ambiciosos y escalables. El Autopilot de Tesla, por ejemplo, se creó utilizando PyTorch, y la plataforma de cloud computing de Microsoft, Azure, lo admite. PyTorch se ha vuelto tan popular que ha crecido un ecosistema de herramientas de apoyo (como Torchvision y TorchText) a su alrededor. Tanto Tensorflow como Pytorch utilizan un gráfico computacional, una estructura de datos que representa el flujo de operaciones y variables durante el entrenamiento del modelo.
IBM es un miembro de la PyTorch Foundation; utiliza PyTorch con su portfolio watsonx.