Una Revisión de los Fundamentos de Aprendizaje Profundo – El Modelo de Red Neuronal XOR

Autores/as

  • Alejo Mosso Vázquez Instituto Tecnológico Superior de Calkiní en el Estado de Campeche. Departamento de Mecatrónica. Calkiní, Campeche. México
  • David Juárez-Romero Universidad Autónoma del Estado de Morelos. Centro de Investigación en Ingeniería y Ciencias Aplicadas. Cuernavaca, Morelos. México https://orcid.org/0000-0003-0942-9738
  • José Alfredo Hernández-Pérez Universidad Autónoma del Estado de Morelos. Centro de Investigación en Ingeniería y Ciencias Aplicadas. Cuernavaca, Morelos. México https://orcid.org/0000-0002-2107-3044
  • Darvi Echeverría Sosa Tecnológico Nacional de México, Instituto Tecnológico Superior de Motul. Departamento de Ingeniería Electromecánica. Motul, Yucatán. México
  • Jimer Emir Loría Yah Instituto Tecnológico Superior de Calkiní en el Estado de Campeche. Departamento de Mecatrónica. Calkiní, Campeche. México https://orcid.org/0000-0001-7965-0417
  • Ramiro José González Horta Instituto Tecnológico Superior de Calkiní en el Estado de Campeche. Departamento de Mecatrónica. Calkiní, Campeche. México https://orcid.org/0000-0003-3868-6442
  • Gerardo Israel de Atocha Pech Carveo Instituto Tecnológico Superior de Calkiní en el Estado de Campeche. Departamento de Mecatrónica. Calkiní, Campeche. México
  • Carlos Alberto Decena Chan Instituto Tecnológico Superior de Calkiní en el Estado de Campeche. Departamento de Mecatrónica. Calkiní, Campeche. México

DOI:

https://doi.org/10.30973/progmat/2023.15.1/5

Palabras clave:

Deep learning, redes neuronales, función XOR, algoritmo de retropropagación, algoritmo gradiente descendente estocástico

Resumen

Deep Learning mediante el seguimiento, en un simple modelo de Redes Neuronales de la función XOR, de las señales en forward y backward que fluyen a través de este modelo. Nuestro objetivo es alcanzar una comprensión más profunda de algunos conceptos sobresalientes de Deep Learning, lo que nos permitiría comprender su significado mientras el modelo de Redes Neuronales de la función XOR es entrenado por el algoritmo Retropropagación. El modelo elegido contiene una sola capa oculta con cuatro neuronas y una capa de salida con una neurona. Aunque este modelo no es una red neuronal profunda, su capa oculta lleva los conceptos suficientes de Deep Learning. Se utiliza la sigmoidea como función de activación en todas las neuronas. Se presenta una derivación de una versión simple del algoritmo Gradiente Descendente Estocástico, que se usa para minimizar el error de salida, y luego al retropropagarlo llegamos al algoritmo de retropropagación. Se presentan resultados numéricos, que muestran la convergencia del error de salida y el de un peso seleccionado y su análisis resume la comprensión de los conceptos fundamentales de Deep Learning.

Biografía del autor/a

Alejo Mosso Vázquez, Instituto Tecnológico Superior de Calkiní en el Estado de Campeche. Departamento de Mecatrónica. Calkiní, Campeche. México

Recibió el grado de Ingeniero en Comunicaciones y Electrónica de la Escuela Superior de Ingeniería Mecánica y Eléctrica del Instituto Politécnico Nacional (IPN) de México en 1975. Es maestro en ciencias con especialidad en Control por el CINVESTAV- IPN en México 1986. Es también maestro en ciencias en sistemas de la manufactura con especialidad en Robótica por el ITESM–UT (USA) en 1993. También obtuvo el grado de Doctor en Ingeniería y Ciencias Aplicadas en Cuernavaca Morelos, México en 2012 por el CIICAP-UAEM. Sus intereses de investigación son Programación Matemática aplicada a la Robótica Humanoide, Control Automático y Redes Neuronales – Deep Learning.

David Juárez-Romero, Universidad Autónoma del Estado de Morelos. Centro de Investigación en Ingeniería y Ciencias Aplicadas. Cuernavaca, Morelos. México

Realizó su licenciatura en Ingeniería Química en la Fac. Química-UNAM, y sus estudios de maestría y doctorado en el Colegio Imperial de la Universidad de Londres, U. K. Su línea de investigación es “la mejora del Diseño y la operación de procesos de separación-transformación relacionados con máquinas de energía”. Desarrolla metodologías para analizar, diseñar, y controlar estos procesos. Pertenece al Sistema Nacional de Investigadores.

José Alfredo Hernández-Pérez, Universidad Autónoma del Estado de Morelos. Centro de Investigación en Ingeniería y Ciencias Aplicadas. Cuernavaca, Morelos. México

Received a Professional Diploma in chemical engineering from Veracruzana University (Veracruz). He received an M.S. degree in food science from Instituto Tecnológico de Veracruz (Veracruz) and a Ph.D. degree in process engineering from École Nationale Supérieure des Industries Agricoles et Alimentaires (Paris, France). He works mainly on artificial intelligence in engineering processes. His research interests include modeling and simulation processes, optimization, and state estimation with application in heat and mass transfer processes and image analysis. He has published more than 110 articles. He is also a Reviewer for Neurocomputing, Energy, International Journal of Heat and Mass Transfer, International Journal of Thermal Sciences, International Journal of Refrigeration, Journal of Food Engineering, JAFC, MPE, Desalination, WASJ, RMCG, CABEQ, IJACT, Arabian JSE, Desalination and Water Treatment, IJEIS, IJTS, LAAR, and others. Finally, he is a member of the editor board of Computational Intelligence and Neuroscience (Impact Factor 2.28 according to the 2020 Journal Citation Reports released by Clarivate Analytics in 2018).

Darvi Echeverría Sosa, Tecnológico Nacional de México, Instituto Tecnológico Superior de Motul. Departamento de Ingeniería Electromecánica. Motul, Yucatán. México

Recibió el grado de Ingeniero Mecánico en el Instituto Tecnológico de Mérida en 1996 con cédula profesional 2689731 es Maestro en Ingeniería Mecatrónica con cédula profesional 7136525 egresado de la Universidad Modelo en el año 2011 en la ciudad de Mérida Yucatán México, actualmente es profesor de tiempo completo en el área de Electromecánica del Tecnológico Nacional de México, Campus Motul, sus intereses son el desarrollo tecnológico y la investigación en las áreas de Diseño y automatización de máquinas y mecanismos así como en el diseño mecatrónico.

Jimer Emir Loría Yah, Instituto Tecnológico Superior de Calkiní en el Estado de Campeche. Departamento de Mecatrónica. Calkiní, Campeche. México

Recibió el grado de Ingeniero en la carrera de Ingeniería Mecánica del Instituto Tecnológico de Mérida; con número de cédula profesional 4912966 en el año de 2006. Es maestro en planificación de empresas y desarrollo regional, egresado del Instituto Tecnológico de Mérida; con número de cedula profesional 6613953 en el año de 2010. Es también Maestro en Ingeniería Mecatrónica, con número cédula profesional 11648300, egresado de la Universidad Modelo con clave 310073, en la ciudad de Mérdia en el Estado de Yucatán, en el año de 2019. Sus intereses son la investigación y desarrollo técnologico sustentable de la región, así como al modelado y simulación de sistemas electrónicos y mecánicos.

Ramiro José González Horta, Instituto Tecnológico Superior de Calkiní en el Estado de Campeche. Departamento de Mecatrónica. Calkiní, Campeche. México

Recibió el grado de Arquitecto del Instituto Tecnológico de Acapulco en 1995. Es maestro en Administración de la Construcción por el instituto Tecnológico de la Construcción de la Cd. de México 2007. Es también candidato a Maestro en Ingeniería Mecatrónica por la Universidad Modelo Mérida Yucatán, 2018. Es también Coordinador del Programa Académico de Ingeniería Mecatrónica del Instituto Tecnológico Superior de Calkiní en el Estado de Campeche. Sus intereses de investigación son en el área de diseño, control e impresión 3D aplicado a la Robótica.

Gerardo Israel de Atocha Pech Carveo, Instituto Tecnológico Superior de Calkiní en el Estado de Campeche. Departamento de Mecatrónica. Calkiní, Campeche. México

Nació en la ciudad de Dzitbalché, Campeche, México. Egresado del Instituto Tecnológico Superior de Calkiní en el Estado de Campeche como Ingeniero Industrial en el año 2010. Del 2010-2015 se incorpora en la Industria Petrolera de iniciativa desempeñándose en el área producción. En el 2016 inicia como Profesor asociado A en el ITESCAM y en el año 2018 alcanza una maestría en Ingeniería Mecatrónica por la Universidad Modelo, participando como asesor en diversos proyectos y asesoramiento de tesis residencial. Las áreas a fines donde se desempeña son: Mecánica, Diseño y Modelado 3D.

Carlos Alberto Decena Chan, Instituto Tecnológico Superior de Calkiní en el Estado de Campeche. Departamento de Mecatrónica. Calkiní, Campeche. México

Nació en la ciudad de Campeche, Campeche, México, egresado de la Universidad Autónoma de Campeche como Ingeniero en Comunicaciones y Electrónica en el año 2007, con una maestría en Ingeniería Mecatrónica en el año 2018 en la Universidad Modelo, además de a ver realizado anteriormente una maestría en Ingeniería Administrativa en el año 2007-2009, en el Instituto de estudios Universitarios del Estado de Campeche. Las áreas a fines donde se desempeña son: Electrónica Analógica, Electrónica de potencia y la electrónica digital. El maestro actualmente se desempeña como profesor de asignatura “A”, Actualmente está participando como Asesor de Tesis en el área de Ing. Mecatrónica.

Citas

Marvin Minsky and Seymour Papert (1969) Perceptrons - An introduction to computational geometry. The MIT Press.

W. McCulloch and W. Pitts (1943). A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical Biophysics., Vol. 5, pp. 115–133. https://doi.org/10.1007/BF02478259

F. Rosenblatt (1958). The perceptron: A probabilistic model for information storage and organization in the brain, Psychological Review, Vol. 65, pp. 386–408. https://psycnet.apa.org/doi/10.1037/h0042519

Rumelhart, D.E., Hinton, G. E. and Williams, R. J. (1986). Learning Internal Representation by Error Propagation. In D. E. Rumelhart and J. L. McClelland. Parallel Distributed Processing: Explorations in the Microstructure of Cognition, MIT Press.

David E. E. Rumelhart, James L. Mcclelland, and PDP Research Group (1986). Parallel Distributed Processing - Explorations in the Microstructure of Cognition – Foundations. The MIT press.

Hinton, G. E., Osindero, S. and Yee-Whye The (2006). A Fast Learning Algorithm for Deep Belief Nets. Neural Computation 18, 1527–1554. Massachusetts Institute of Technology. https://doi.org/10.1162/neco.2006.18.7.1527

Phil Kim (2017). MATLAB Deep Learning - With Machine Learning, Neural Networks and Artificial Intelligence. Apress. https://doi.org/10.1007/978-1-4842-2845-6

Snyman, J A (2018). Practical Mathematical Optimization - Basic Optimization Theory and Gradient-Based Algorithms. Springer.

Nikhil Buduma and Nicholas Locascio (2017). Fundamentals of Deep Learning - Designing Next-Generation Machine Intelligence Algorithms. O'Reilly Media.

Mark F. Bear, Barry W. Connors, and Michael A. Paradiso (2020). Neuroscience - Exploring the Brain. Jones & Bartlett Learning.

Mirela Reljan-Delaney and Julie Wall (2017). Solving the Linearly Inseparable XOR Problem. School of Architecture Computing and Engineering University of East London, United Kingdom.

Valentina Emilia Balas, Sanjiban Sekhar Roy, Dharmendra Sharma, Pijush Samui – Editors (2019). Handbook of Deep Learning Applications. Springer. https://doi.org/10.1007/978-3-030-11479-4

Dong Yu and Li Deng (2015). Automatic Speech Recognition - A Deep Learning Approach. Springer. https://doi.org/10.1007/978-1-4471-5779-3

Hernandez J.A. , R.J. Romero, D. Juárez-Romero, R.F. Escobar, J. Siqueiros. A. (2009). Neural network approach and thermodynamic model of waste energy recovery in a heat transformer in a water purification processes. Desalination (ISSN: 0011-9164) 243, pp 273-285. https://doi.org/10.1016/j.desal.2008.05.015

Publicado

16-02-2023

Cómo citar

Mosso Vázquez, A., Juárez-Romero, D., Hernández-Pérez, J. A., Echeverría Sosa, D., Loría Yah, J. E., González Horta, R. J., Pech Carveo, G. I. de A., & Decena Chan, C. A. (2023). Una Revisión de los Fundamentos de Aprendizaje Profundo – El Modelo de Red Neuronal XOR. Programación matemática Y Software, 15(1), 34–44. https://doi.org/10.30973/progmat/2023.15.1/5

Número

Sección

Artículos

Artículos más leídos del mismo autor/a