Diferencia entre revisiones de «PyTorch»

De Wikipedia, la enciclopedia libre
Contenido eliminado Contenido añadido
Creado al traducir la página «PyTorch»
(Sin diferencias)

Revisión del 11:46 1 dic 2020

PyTorch
Información general
Tipo de programa biblioteca de software
Autor
  • Adam Paszke
  • Sam Gross
  • Soumith Chintala
  • Gregory Chanan
Desarrollador Facebook's AI Research lab (FAIR)
Licencia BSD
Información técnica
Programado en
Plataformas admitidas IA-32, x86-64
Versiones
Última versión estable 2.3.024 de abril de 2024
Última versión en pruebas 0.1.62 de febrero de 2017
Enlaces

PyTorch es una biblioteca de aprendizaje automático de código abierto basada en la biblioteca de Torch, utilizado para aplicaciones que implementan cosas como visión artificial y procesamiento de lenguajes naturales, principalmente desarrollado por el Laboratorio de Investigación de Inteligencia Artificial de Facebook (FAIR).[1][2][3][4][5][6][7]​ Es un software libre y de código abierto liberado bajo la Licencia Modificada de BSD. A pesar de que la interfaz de Python está más pulida y es el foco principal del desarrollo, PyTorch también tiene una interfaz en C++.[8]

Un número de las piezas de software de Aprendizaje Profundo están construidas utilizando PyTorch, incluyendo Tesla Autopilot[9]​, Uber's Pyro, HuggingFace's Transformers, PyTorch Lighting[10][11]​, y Catalyst.[12][13][14][15]

PyTorch proporciona dos características de alto nivel:[16]

Historia

Facebook operó PyTorch y Convolutional Architecture for Fast Feature Embedding (Caffe2), pero los modelos definidos para los dos Frameworks eran incompatibles. El proyecto Open Neural Network Exchange (ONNX) fue creado por Facebook y Microsoft en septiembre de 2017 para convertir modelos entre frameworks. Caffe2 se fusionó con PyTorch a finales de marzo de 2018.[17]

Tensores de PyTorch

PyTorch define una clase Tensor llamada (torch.Tensor) para almacenar y operar con Arrays de números rectangulares, homogéneos y multidimensionales. Los Tensores de PyTorch son similares a los Vectores de NumPy, pero también puede ser operado en una GPU de Nvidia capacitada para CUDA. PyTorch soporta varios sub-tipos de Tensores.[18]

Módulos

Autograd module

PyTorch utiliza un método llamó diferenciación automática. Unos registrador registra lo que las operaciones han hecho, y entonces él repite para computar los grados. Este método es especialmente potente cuándo se están construyendo redes neuronales para ahorrar tiempo en una época en la que calcular la diferenciación de los parámetros es un paso adelante.

Optim module

torch.optim es un módulo que implementa varios algoritmos de optimización que se utilizan para construir redes neuronales. La mayoría de los métodos comúnmente usados ya están soportados, por lo tanto no hay ninguna necesidad de construirlos desde Scratch.

nn module

PyTorch Autograd hace que sea fácil definir grafos computacionales y coger distintos grados, pero Raw Autograd puede ser de demasiado bajo nivel para definir redes neuronales complejas. Por esto es por lo que se creó el módulo nn , para ayudar a crear redes neuronales más complejas.

Ver también

 

Referencias

  1. Yegulalp, Serdar (19 January 2017). «Facebook brings GPU-powered machine learning to Python». Consultado el 11 December 2017. 
  2. Lorica, Ben (3 August 2017). «Why AI and machine learning researchers are beginning to embrace PyTorch». O'Reilly Media. Consultado el 11 December 2017. 
  3. Ketkar, Nikhil (2017). «Introduction to PyTorch». Deep Learning with Python (en inglés). Apress, Berkeley, CA. pp. 195-208. ISBN 9781484227657. doi:10.1007/978-1-4842-2766-4_12. 
  4. «Natural Language Processing (NLP) with PyTorch – NLP with PyTorch documentation». dl4nlp.info (en inglés). Consultado el 18 de diciembre de 2017. 
  5. Patel, Mo (7 de diciembre de 2017). «When two trends fuse: PyTorch and recommender systems» (en inglés). Consultado el 18 de diciembre de 2017. 
  6. Mannes, John. «Facebook and Microsoft collaborate to simplify conversions from PyTorch to Caffe2» (en inglés). Consultado el 18 de diciembre de 2017. «FAIR is accustomed to working with PyTorch – a deep learning framework optimized for achieving state of the art results in research, regardless of resource constraints. Unfortunately in the real world, most of us are limited by the computational capabilities of our smartphones and computers.» 
  7. Arakelyan, Sophia (29 de noviembre de 2017). «Tech giants are using open source frameworks to dominate the AI community». VentureBeat (en inglés estadounidense). Consultado el 18 de diciembre de 2017. 
  8. «The C++ Frontend». PyTorch Master Documentation. Consultado el 29 de julio de 2019. 
  9. Karpathy, Andrej. «PyTorch at Tesla - Andrej Karpathy, Tesla». 
  10. PYTORCH-Lightning: The lightweight PyTorch wrapper for ML researchers. Scale your models. Write less boilerplate, Lightning-Team, 18 de junio de 2020, consultado el 18 de junio de 2020 .
  11. «Ecosystem Tools». pytorch.org (en inglés). Consultado el 18 de junio de 2020. 
  12. «Uber AI Labs Open Sources Pyro, a Deep Probabilistic Programming Language» (en inglés estadounidense). 3 de noviembre de 2017. Consultado el 18 de diciembre de 2017. 
  13. PYTORCH-TRANSFORMERS: PyTorch implementations of popular NLP Transformers, PyTorch Hub, 1 de diciembre de 2019, consultado el 1 de diciembre de 2019 .
  14. GitHub - catalyst-team/catalyst: Accelerated DL & RL, Catalyst-Team, 5 de diciembre de 2019, consultado el 5 de diciembre de 2019 .
  15. «Ecosystem Tools». pytorch.org (en inglés). Consultado el 4 de abril de 2020. 
  16. «PyTorch – About». pytorch.org. Archivado desde el original el 15 de junio de 2018. Consultado el 11 de junio de 2018. 
  17. «Caffe2 Merges With PyTorch». 2 de abril de 2018. 
  18. «An Introduction to PyTorch – A Simple yet Powerful Deep Learning Library». analyticsvidhya.com. 22 de febrero de 2018. Consultado el 11 de junio de 2018. 

Enlaces externos