Regular Inference over Recurrent Neural Networks as a Method for Black Box Explainability
Resumen:
El presente Desarrollo de Tesis explora el problema general de explicar el comportamiento de una red neuronal recurrente (RNN por sus siglas en inglés). El objetivo es construir una representación que mejore el entendimiento humano de las RNN como clasificadores de secuencias, con el propósito de proveer entendimiento sobre el proceso de decisión detrás de la clasificación de una secuencia como positiva o negativa, y a su vez, habilitar un mayor análisis sobre las mismas como por ejemplo la verificación formal basada en autómatas. Se propone en concreto, un algoritmo de aprendizaje automático activo para la construcción de un autómata finito determinístico que es aproximadamente correcto respecto a una red neuronal artificial.
2019 | |
PROYECTOS-MI REDES NEURONALES INTELIGENCIA ARTIFICIAL |
|
Inglés | |
Universidad ORT Uruguay | |
RAD | |
http://hdl.handle.net/20.500.11968/4220 | |
Acceso abierto |