Aprendizaje por transferencia

De Wikipedia, la enciclopedia libre
Ilustración del aprendizaje por transferencia

El aprendizaje por transferencia (TL) es una técnica de aprendizaje máquina (ML) en la que el conocimiento aprendido de una tarea se reutiliza para elevar el rendimiento en una tarea relacionada. [1]​ Por ejemplo, para la clasificación de imágenes, los conocimientos adquiridos al aprender a reconocer automóviles podrían aplicarse al intentar reconocer camiones. Este tema está relacionado con la literatura psicológica sobre la transferencia de aprendizaje, aunque los vínculos prácticos entre los dos campos son limitados. Reutilizar/transferir información de tareas previamente aprendidas a nuevas tareas tiene el potencial de mejorar significativamente la eficiencia del aprendizaje. [2]

Dado que el aprendizaje por transferencia hace uso de entrenamiento con múltiples funciones objetivo, está relacionado con aprendizaje máquina sensible a los costos y optimización multiobjetivo. [3]

Historia[editar]

En 1976, Bozinovski y Fulgosi publicaron un artículo abordando el aprendizaje por transferencia en entrenamiento de redes neuronales. [4][5]​ El artículo ofrece un modelo matemático y geométrico del tema.

En 1981, un informe consideró la aplicación del aprendizaje por transferencia a un conjunto de datos de imágenes que representan letras de terminales de computadora, demostrando experimentalmente el aprendizaje por transferencia positiva y negativa. [6]

En 1992, Pratt formuló el algoritmo de transferencia basada en discriminabilidad (DBT). [7]

En 1997, Pratt y Thrun editaron como invitados un número especial de Machine Learning dedicado al aprendizaje por transferencia, [8]​ y en 1998, el campo había avanzado para incluir el aprendizaje multitarea, [9]​ junto con fundamentos teóricos más formales. [10]Learning to Learn, [11]​ editado por Thrun y Pratt, es una revisión del tema realizada en 1998.

El aprendizaje por transferencia se ha aplicado en la Ciencia cognitiva. Pratt editó como invitado un número de Connection Science en la reutilización de redes neuronales mediante transferencia en 1996. [12]

Andrew Ng dijo en su tutorial NIPS 2016 [13][14][15]​ que TL se convertiría en el próximo impulsor del éxito comercial del aprendizaje automático después del aprendizaje supervisado.

En el artículo de 2020, "Rethinking Pre-Training and self-training", [16]​ Zoph et al. informó que el entrenamiento previo puede perjudicar la precisión y, en su lugar, recomienda el auto-entrenamiento.

Aplicaciones[editar]

Hay algoritmos disponibles para el aprendizaje por transferencia en redes lógicas de Markov [17]​ y redes Bayesianas. [18]​ El aprendizaje por transferencia se ha aplicado al descubrimiento de subtipos de cáncer, [19]​ utilización de edificios, [20][21]​ juegos generales, [22]clasificación de texto, [23][24]​ reconocimiento de dígitos, [25]​ imágenes médicas y filtrado de spam. [26]

En 2020, se descubrió que, debido a sus naturalezas físicas similares, el aprendizaje por transferencia es posible entre señales electromiográficas (EMG) de los músculos y clasificar los comportamientos de las ondas cerebrales electroencefalográficas (EEG), desde el dominio de reconocimiento de gestos hasta el dominio de reconocimiento del estado mental. Se notó que esta relación funcionaba en ambas direcciones, mostrando que la electroencefalografía también puede usarse para clasificar la EMG. [27]​ Los experimentos notaron que la precisión de las redes neuronales y las redes neuronales convolucionales mejoró [28]​ a través de ambos aprendizajes por transferencia antes de cualquier aprendizaje (en comparación con la distribución de peso aleatoria estándar) y al final del proceso de aprendizaje. Esto es, los resultados mejoran al exponerse a otro dominio. Además, el usuario-final de un modelo previamente-entrenado puede cambiar la estructura de capas completamente-conectadas para mejorar el rendimiento. [29]

Software[editar]

Aprendizaje por transferencia y adaptación de dominio.

Varias compilaciones de aprendizaje por transferencia y algoritmos de adaptación de dominios han sido implementadas:

  • ADAPT [30]​ (Python)
  • TLlib [31]​ (Python)
  • Domain-Adaptation-Toolbox [32]​ (Matlab)

Véase también[editar]

Referencias[editar]

  1. West, Jeremy (2007). «Spring Research Presentation: A Theoretical Foundation for Inductive Transfer». Brigham Young University, College of Physical and Mathematical Sciences. Archivado desde el original el 1 de agosto de 2007. Consultado el 5 de agosto de 2007. 
  2. George Karimpanal, Thommen; Bouffanais, Roland (2019). «Self-organizing maps for storage and transfer of knowledge in reinforcement learning». Adaptive Behavior 27 (2): 111-126. ISSN 1059-7123. arXiv:1811.08318. doi:10.1177/1059712318818568. 
  3. Cost-Sensitive Machine Learning. (2011). USA: CRC Press, Page 63, https://books.google.de/books?id=8TrNBQAAQBAJ&pg=PA63
  4. Stevo. Bozinovski and Ante Fulgosi (1976). "The influence of pattern similarity and transfer learning upon the training of a base perceptron B2." (original in Croatian) Proceedings of Symposium Informatica 3-121-5, Bled.
  5. Stevo Bozinovski (2020) "Reminder of the first paper on transfer learning in neural networks, 1976". Informatica 44: 291–302.
  6. S. Bozinovski (1981). "Teaching space: A representation concept for adaptive pattern classification." COINS Technical Report, the University of Massachusetts at Amherst, No 81-28 [available online: UM-CS-1981-028.pdf]
  7. Pratt, L. Y. (1992). «Discriminability-based transfer between neural networks». NIPS Conference: Advances in Neural Information Processing Systems 5. Morgan Kaufmann Publishers. pp. 204-211. 
  8. Pratt, L. Y. (July 1997). «Machine Learning - Special Issue on Inductive Transfer». link.springer.com 28. Springer. Consultado el 10 de agosto de 2017. 
  9. Caruana, R., "Multitask Learning", pp. 95-134 in Thrun y Pratt, 2012
  10. Baxter, J., "Theoretical Models of Learning to Learn", pp. 71-95 Thrun y Pratt, 2012
  11. Thrun y Pratt, 2012.
  12. Pratt, L. (1996). «Special Issue: Reuse of Neural Networks through Transfer». Connection Science 8 (2). Consultado el 10 de agosto de 2017. 
  13. NIPS 2016 tutorial: "Nuts and bolts of building AI applications using Deep Learning" by Andrew Ng (en inglés), archivado desde el original el 19 de diciembre de 2021, consultado el 28 de diciembre de 2019 .
  14. «NIPS 2016 Schedule». nips.cc. Consultado el 28 de diciembre de 2019. 
  15. Nuts and bolts of building AI applications using Deep Learning, slides
  16. Zoph, Barret (2020). «Rethinking pre-training and self-training». Advances in Neural Information Processing Systems 33: 3833-3845. arXiv:2006.06882. Consultado el 20 de diciembre de 2022. 
  17. Mihalkova, Lilyana; Huynh, Tuyen; Mooney, Raymond J. (July 2007), «Mapping and Revising Markov Logic Networks for Transfer», Learning Proceedings of the 22nd AAAI Conference on Artificial Intelligence (AAAI-2007), Vancouver, BC, pp. 608-614, consultado el 5 de agosto de 2007 .
  18. Niculescu-Mizil, Alexandru; Caruana, Rich (March 21–24, 2007), «Inductive Transfer for Bayesian Network Structure Learning», Proceedings of the Eleventh International Conference on Artificial Intelligence and Statistics (AISTATS 2007), consultado el 5 de agosto de 2007 .
  19. Hajiramezanali, E. & Dadaneh, S. Z. & Karbalayghareh, A. & Zhou, Z. & Qian, X. Bayesian multi-domain learning for cancer subtype discovery from next-generation sequencing count data. 32nd Conference on Neural Information Processing Systems (NeurIPS 2018), Montréal, Canada. arΧiv:1810.09433
  20. . 4th ACM International Conference on Systems for Energy-Efficient Built Environments (BuildSys). 8 de noviembre de 2017. pp. 1-10. ISBN 978-1-4503-5544-5. doi:10.1145/3137133.3137146. 
  21. Arief-Ang, I.B.; Hamilton, M.; Salim, F.D. (1 de diciembre de 2018). «A Scalable Room Occupancy Prediction with Transferable Time Series Decomposition of CO2 Sensor Data». ACM Transactions on Sensor Networks 14 (3–4): 21:1-21:28. doi:10.1145/3217214. 
  22. Banerjee, Bikramjit, and Peter Stone. "General Game Learning Using Knowledge Transfer." IJCAI. 2007.
  23. Do, Chuong B.; Ng, Andrew Y. (2005). «Transfer learning for text classification». Neural Information Processing Systems Foundation, NIPS*2005. Consultado el 5 de agosto de 2007. 
  24. Rajat, Raina; Ng, Andrew Y.; Koller, Daphne (2006). «Constructing Informative Priors using Transfer Learning». Twenty-third International Conference on Machine Learning. Consultado el 5 de agosto de 2007. 
  25. Maitra, D. S.; Bhattacharya, U.; Parui, S. K. (August 2015). «CNN based common approach to handwritten character recognition of multiple scripts». 2015 13th International Conference on Document Analysis and Recognition (ICDAR). pp. 1021-1025. ISBN 978-1-4799-1805-8. doi:10.1109/ICDAR.2015.7333916. 
  26. Bickel, Steffen (2006). «ECML-PKDD Discovery Challenge 2006 Overview». ECML-PKDD Discovery Challenge Workshop. Consultado el 5 de agosto de 2007. 
  27. Bird, Jordan J.; Kobylarz, Jhonatan; Faria, Diego R.; Ekart, Aniko; Ribeiro, Eduardo P. (2020). «Cross-Domain MLP and CNN Transfer Learning for Biological Signal Processing: EEG and EMG». IEEE Access (Institute of Electrical and Electronics Engineers (IEEE)) 8: 54789-54801. ISSN 2169-3536. doi:10.1109/access.2020.2979074. 
  28. Maitra, Durjoy Sen; Bhattacharya, Ujjwal; Parui, Swapan K. (August 2015). «CNN based common approach to handwritten character recognition of multiple scripts». 2015 13th International Conference on Document Analysis and Recognition (ICDAR). pp. 1021-1025. ISBN 978-1-4799-1805-8. doi:10.1109/ICDAR.2015.7333916. 
  29. Kabir, H. M. Dipu; Abdar, Moloud; Jalali, Seyed Mohammad Jafar; Khosravi, Abbas; Atiya, Amir F.; Nahavandi, Saeid; Srinivasan, Dipti (7 de enero de 2022). «SpinalNet: Deep Neural Network with Gradual Input». IEEE Transactions on Artificial Intelligence: 1-13. arXiv:2007.03347. doi:10.1109/TAI.2022.3185179. 
  30. de Mathelin, Antoine and Deheeger, François and Richard, Guillaume and Mougeot, Mathilde and Vayatis, Nicolas (2020) "ADAPT: Awesome Domain Adaptation Python Toolbox"
  31. Mingsheng Long Junguang Jiang, Bo Fu. (2020) "Transfer-learning-library"
  32. Ke Yan. (2016) "Domain adaptation toolbox"