Procesos Gausianos profundos y redes neuronales infinitas para el análisis de señales EEG en la enfermedad de Alzheimer

Los modelos de redes neuronales profundos (DGPs) se pueden repre[1]sentar jerárquicamente mediante una composición secuencial de capas. Cuando la distribución prior sobre los pesos y sesgos son independien[1]tes idénticamente distribuidos, existe una equivalencia con los procesos Gaussiano (GP), en...

Descripción completa

Detalles Bibliográficos
Autores principales: Román, Krishna, Cumbicus, Andy, Infante, Saba, Fonseca-Delgado, Rigoberto
Formato: Online
Idioma:eng
Publicado: Universidad de Costa Rica, Centro de Investigación en Matemática Pura y Aplicada (CIMPA) 2022
Acceso en línea:https://revistas.ucr.ac.cr/index.php/matematica/article/view/48885
id RMTA48885
record_format ojs
institution Universidad de Costa Rica
collection Revista de Matemática: Teoría y Aplicaciones
language eng
format Online
author Román, Krishna
Cumbicus, Andy
Infante, Saba
Fonseca-Delgado, Rigoberto
spellingShingle Román, Krishna
Cumbicus, Andy
Infante, Saba
Fonseca-Delgado, Rigoberto
Procesos Gausianos profundos y redes neuronales infinitas para el análisis de señales EEG en la enfermedad de Alzheimer
author_facet Román, Krishna
Cumbicus, Andy
Infante, Saba
Fonseca-Delgado, Rigoberto
author_sort Román, Krishna
description Los modelos de redes neuronales profundos (DGPs) se pueden repre[1]sentar jerárquicamente mediante una composición secuencial de capas. Cuando la distribución prior sobre los pesos y sesgos son independien[1]tes idénticamente distribuidos, existe una equivalencia con los procesos Gaussiano (GP), en el límite de una anchura de red infinita. Los DGPs son modelos estadísticos no paramétricos y se utilizan para caracterizar los patrones de sistema no lineales complejos, por su flexibilidad, mayor capacidad de generalización, y porque proporcionan una forma natural para hacer inferencia sobre los parámetros y estados del sistema. En este artículo se propone una estructura Bayesiana jerárquica para modelar los pesos y sesgos de la red neuronal profunda, se deduce una formula general para calcular las integrales de procesos Gaussianos con funciones de trans[1]ferencias no lineles, y se obtiene un núcleo para estimar las funciones de covarianzas. Para ilustrar la metodología se realiza un estudio empírico analizando una base de datos de electroencefalogramas (EEG) para el diagnóstico de la enfermedad de Alzheimer. Adicionalmente, se estiman los modelos DGPs, y se comparan con los modelos de NN para 5, 10, 50, 100, 500 y 1000 neuronas en la capa oculta, considerando dos funciones de transferencia: Unidad Lineal Rectificada (ReLU) y tangenge hiperbólica (Tanh). Los resultados demuestran buen desempeño en la clasificación de las señales. Finalmente, utilizó como medida de bondad de ajuste el error cuadrático medio para validar los modelos propuestos, obteniéndose errores de estimación bajos.
title Procesos Gausianos profundos y redes neuronales infinitas para el análisis de señales EEG en la enfermedad de Alzheimer
title_short Procesos Gausianos profundos y redes neuronales infinitas para el análisis de señales EEG en la enfermedad de Alzheimer
title_full Procesos Gausianos profundos y redes neuronales infinitas para el análisis de señales EEG en la enfermedad de Alzheimer
title_fullStr Procesos Gausianos profundos y redes neuronales infinitas para el análisis de señales EEG en la enfermedad de Alzheimer
title_full_unstemmed Procesos Gausianos profundos y redes neuronales infinitas para el análisis de señales EEG en la enfermedad de Alzheimer
title_sort procesos gausianos profundos y redes neuronales infinitas para el análisis de señales eeg en la enfermedad de alzheimer
title_alt Deep Gaussian processes and infinite neural networks for the analysis of EEG signals in Alzheimer’s diseases
publisher Universidad de Costa Rica, Centro de Investigación en Matemática Pura y Aplicada (CIMPA)
publishDate 2022
url https://revistas.ucr.ac.cr/index.php/matematica/article/view/48885
work_keys_str_mv AT romankrishna deepgaussianprocessesandinfiniteneuralnetworksfortheanalysisofeegsignalsinalzheimersdiseases
AT cumbicusandy deepgaussianprocessesandinfiniteneuralnetworksfortheanalysisofeegsignalsinalzheimersdiseases
AT infantesaba deepgaussianprocessesandinfiniteneuralnetworksfortheanalysisofeegsignalsinalzheimersdiseases
AT fonsecadelgadorigoberto deepgaussianprocessesandinfiniteneuralnetworksfortheanalysisofeegsignalsinalzheimersdiseases
AT romankrishna procesosgausianosprofundosyredesneuronalesinfinitasparaelanalisisdesenaleseegenlaenfermedaddealzheimer
AT cumbicusandy procesosgausianosprofundosyredesneuronalesinfinitasparaelanalisisdesenaleseegenlaenfermedaddealzheimer
AT infantesaba procesosgausianosprofundosyredesneuronalesinfinitasparaelanalisisdesenaleseegenlaenfermedaddealzheimer
AT fonsecadelgadorigoberto procesosgausianosprofundosyredesneuronalesinfinitasparaelanalisisdesenaleseegenlaenfermedaddealzheimer
_version_ 1811744113696964608
spelling RMTA488852022-09-08T15:06:41Z Deep Gaussian processes and infinite neural networks for the analysis of EEG signals in Alzheimer’s diseases Procesos Gausianos profundos y redes neuronales infinitas para el análisis de señales EEG en la enfermedad de Alzheimer Román, Krishna Cumbicus, Andy Infante, Saba Fonseca-Delgado, Rigoberto deep Gaussian process Alzheimer disease electroencephalogram procesos gausianos profundos enfermedad de Alzheimer electroencefalogramas Deep neural network models (DGPs) can be represented hierarchically by a sequential composition of layers. When the prior distribution over the weights and biases are independently identically distributed, there is an equivalence with Gaussian processes (GP) in the limit of an infinite net[1]work width. DGPs are non-parametric statistical models used to character[1]ize patterns of complex non-linear systems due to their flexibility, greater generalization capacity, and a natural way of making inferences about the parameters and states of the system. This article proposes a hierarchi[1]cal Bayesian structure to model the weights and biases of a deep neural network. We deduce a general formula to calculate the integrals of Gaussian processes with non-linear transfer densities and obtain a kernel to estimate the covariance functions. In the methodology, we conduct an empirical study analyzing an electroencephalogram (EEG) database for diagnosing Alzheimer’s disease. Additionally, the DGPs models are esti[1]mated and compared with the NN models for 5, 10, 50, 100, 500, and 1000 neurons in the hidden layer, considering two transfer functions: Recti[1]fied Linear Unit (ReLU) and hyperbolic Tangent (Tanh). The results show good performance in the classification of the signals. Finally, we use the mean square error as a goodness of fit measure to validate the proposed models, obtaining low estimation errors. Los modelos de redes neuronales profundos (DGPs) se pueden repre[1]sentar jerárquicamente mediante una composición secuencial de capas. Cuando la distribución prior sobre los pesos y sesgos son independien[1]tes idénticamente distribuidos, existe una equivalencia con los procesos Gaussiano (GP), en el límite de una anchura de red infinita. Los DGPs son modelos estadísticos no paramétricos y se utilizan para caracterizar los patrones de sistema no lineales complejos, por su flexibilidad, mayor capacidad de generalización, y porque proporcionan una forma natural para hacer inferencia sobre los parámetros y estados del sistema. En este artículo se propone una estructura Bayesiana jerárquica para modelar los pesos y sesgos de la red neuronal profunda, se deduce una formula general para calcular las integrales de procesos Gaussianos con funciones de trans[1]ferencias no lineles, y se obtiene un núcleo para estimar las funciones de covarianzas. Para ilustrar la metodología se realiza un estudio empírico analizando una base de datos de electroencefalogramas (EEG) para el diagnóstico de la enfermedad de Alzheimer. Adicionalmente, se estiman los modelos DGPs, y se comparan con los modelos de NN para 5, 10, 50, 100, 500 y 1000 neuronas en la capa oculta, considerando dos funciones de transferencia: Unidad Lineal Rectificada (ReLU) y tangenge hiperbólica (Tanh). Los resultados demuestran buen desempeño en la clasificación de las señales. Finalmente, utilizó como medida de bondad de ajuste el error cuadrático medio para validar los modelos propuestos, obteniéndose errores de estimación bajos. Universidad de Costa Rica, Centro de Investigación en Matemática Pura y Aplicada (CIMPA) 2022-06-30 info:eu-repo/semantics/article info:eu-repo/semantics/publishedVersion Article application/pdf application/postscript application/x-dvi https://revistas.ucr.ac.cr/index.php/matematica/article/view/48885 10.15517/rmta.v29i2.48885 Revista de Matemática: Teoría y Aplicaciones; Vol. 29 No. 2 (2022): Revista de Matemática: Teoría y Aplicaciones; 289-312 Revista de Matemática: Teoría y Aplicaciones; Vol. 29 Núm. 2 (2022): Revista de Matemática: Teoría y Aplicaciones; 289-312 Revista de Matemática; Vol. 29 N.º 2 (2022): Revista de Matemática: Teoría y Aplicaciones; 289-312 2215-3373 1409-2433 eng https://revistas.ucr.ac.cr/index.php/matematica/article/view/48885/51650 https://revistas.ucr.ac.cr/index.php/matematica/article/view/48885/51652 https://revistas.ucr.ac.cr/index.php/matematica/article/view/48885/51653 Derechos de autor 2022 Krishna Román, Andy Cumbicus, Saba Infante, Rigoberto Fonseca-Delgado https://creativecommons.org/licenses/by-nc-sa/4.0