<p>El enfoque Deep Learning o aprendizaje profundo en español, es un tipo de aprendizaje automático que puede crear modelos de redes neuronales profundos, es decir, de varios niveles que nos permite obtener características abstractas dependiendo del número de capas ocultas con que se diseñe la red neuronal base que se desee utilizar. Para este proyecto la red neuronal artificial estudiada fue la red neuronal recurrente, la cual puede manejar datos en secuencias, pero dependiendo de la cantidad de capas ocultas con las que se diseñe puede conllevar que las primeras capas no se entrenen lo suficiente para obtener memoria a largo plazo, ya que, al realizar propagación hacia atrás, el error que se tiene en la salida se va degradando en información haciendo que se pierda en las capas iniciales. Una opción a este problema fue el desarrollo de las redes neuronales recurrentes Long Short-Term Memory -LSTM- y Gated Recurrent Unit -GRU-, las que fueron diseñadas para evitar la problemática del gradiente desvaneciente. Su estructura básica está compuesta por tres capas, una capa de entrada, una capa oculta y una capa de salida. Las redes LSTM y GRU son arquitecturas que nos permiten trabajar con datos en secuencias, la característica recurrente permite a estas redes que la información logre propagarse por el largo de la cadena de análisis, al ser algoritmos del enfoque Deep Learning podemos utilizarlas para analizar grandes cantidades de datos. Estas redes pueden ser utilizadas para extraer características de cualquier dato en secuencia temporal. En este proyecto de titulación se utilizarán para extraer características que generen pronóstico de series temporales y clasificación de señales a partir de bases de datos provenientes de experimentos realizados en dispositivos experimentales de fusión nuclear para generar estrategias de evitación y mitigación de la problemática de la disrupción nuclear</p>
<p>The Deep Learning approach is a type of machine learning that can create deep models, that is, of several levels that allows us to obtain abstract features depending on the number of hidden layers want to be used with which it is designed it can mean that the first layers are not trained enough to obtain memory in the long term, since when performing backward propagation, the error that is present in the output degrades into information causing it to be lost in the initial layers. One option to this problem was the development of the recurrent neural networks Deep Learning, the Long Short-Term Memory -LSTM- and the Gated Recurrent Unit -GRU- both were designed to avoid the problem of the fading gradient. Its basic structure is composed of three neurons, an input layer, a hidden layer and an output layer. The LSTM and GRU networks are architectures that allow us to work with data in sequences, the recurrent feature allows these networks that the information is able to propagate along the length of the chain of analysis, Deep Learning`s architectures we can use them to analyze large amounts of data. These networks can be used to extract characteristics of any data in temporal sequence, in this university degree project they will be used to extract features to obtain forecast of time series of nuclear fusion and classification of nuclear fusion signals from databases from tests carried out in nuclear fusion experimental devices to generate avoidance and mitigation strategies for nuclear disruption</p>
last modification
Ingeniero Civil Electrónico
INGENIERIA CIVIL ELECTRONICA
<p>El enfoque Deep Learning o aprendizaje profundo en español, es un tipo de aprendizaje automático que puede crear modelos de redes neuronales profundos, es decir, de varios niveles que nos permite obtener características abstractas dependiendo del número de capas ocultas con que se diseñe la red neuronal base que se desee utilizar. Para este proyecto la red neuronal artificial estudiada fue la red neuronal recurrente, la cual puede manejar datos en secuencias, pero dependiendo de la cantidad de capas ocultas con las que se diseñe puede conllevar que las primeras capas no se entrenen lo suficiente para obtener memoria a largo plazo, ya que, al realizar propagación hacia atrás, el error que se tiene en la salida se va degradando en información haciendo que se pierda en las capas iniciales. Una opción a este problema fue el desarrollo de las redes neuronales recurrentes Long Short-Term Memory -LSTM- y Gated Recurrent Unit -GRU-, las que fueron diseñadas para evitar la problemática del gradiente desvaneciente. Su estructura básica está compuesta por tres capas, una capa de entrada, una capa oculta y una capa de salida. Las redes LSTM y GRU son arquitecturas que nos permiten trabajar con datos en secuencias, la característica recurrente permite a estas redes que la información logre propagarse por el largo de la cadena de análisis, al ser algoritmos del enfoque Deep Learning podemos utilizarlas para analizar grandes cantidades de datos. Estas redes pueden ser utilizadas para extraer características de cualquier dato en secuencia temporal. En este proyecto de titulación se utilizarán para extraer características que generen pronóstico de series temporales y clasificación de señales a partir de bases de datos provenientes de experimentos realizados en dispositivos experimentales de fusión nuclear para generar estrategias de evitación y mitigación de la problemática de la disrupción nuclear</p>
<p>The Deep Learning approach is a type of machine learning that can create deep models, that is, of several levels that allows us to obtain abstract features depending on the number of hidden layers want to be used with which it is designed it can mean that the first layers are not trained enough to obtain memory in the long term, since when performing backward propagation, the error that is present in the output degrades into information causing it to be lost in the initial layers. One option to this problem was the development of the recurrent neural networks Deep Learning, the Long Short-Term Memory -LSTM- and the Gated Recurrent Unit -GRU- both were designed to avoid the problem of the fading gradient. Its basic structure is composed of three neurons, an input layer, a hidden layer and an output layer. The LSTM and GRU networks are architectures that allow us to work with data in sequences, the recurrent feature allows these networks that the information is able to propagate along the length of the chain of analysis, Deep Learning`s architectures we can use them to analyze large amounts of data. These networks can be used to extract characteristics of any data in temporal sequence, in this university degree project they will be used to extract features to obtain forecast of time series of nuclear fusion and classification of nuclear fusion signals from databases from tests carried out in nuclear fusion experimental devices to generate avoidance and mitigation strategies for nuclear disruption</p>