Regular Inference over Recurrent Neural Networks as a Method for Black Box Explainability
Resumen:
El presente Desarrollo de Tesis explora el problema general de explicar el comportamiento de una red neuronal recurrente (RNN por sus siglas en inglés). El objetivo es construir una representación que mejore el entendimiento humano de las RNN como clasificadores de secuencias, con el propósito de proveer entendimiento sobre el proceso de decisión detrás de la clasificación de una secuencia como positiva o negativa, y a su vez, habilitar un mayor análisis sobre las mismas como por ejemplo la verificación formal basada en autómatas. Se propone en concreto, un algoritmo de aprendizaje automático activo para la construcción de un autómata finito determinístico que es aproximadamente correcto respecto a una red neuronal artificial.
2019 | |
PROYECTOS-MI REDES NEURONALES INTELIGENCIA ARTIFICIAL |
|
Inglés | |
Universidad ORT Uruguay | |
RAD | |
http://hdl.handle.net/20.500.11968/4220 | |
Acceso abierto |
Resultados similares
-
Non-deterministic automata inference from Recurrent Neural Networks
Autor(es):: Morales Jaurena, Pablo Martín
Fecha de publicación:: (2020) -
On-the-fly Black-Box Probably Approximately Correct Checking of Recurrent Neural Networks
Autor(es):: Mayr, Franz
Fecha de publicación:: (2020) -
Analysis, Evaluation and Improvement of Active Regular Inference Algorithms for Neural Sequence Acceptors
Autor(es):: Garat Diaz, Alejo
Fecha de publicación:: (2024) -
Analysis, Evaluation and Improvement of Active Regular Inference Algorithms for Neural Sequence Acceptors
Autor(es):: da Silva, Juan Pedro
Fecha de publicación:: (2024) -
Mejora del tiempo de ejecución de algoritmos de inferencia regular
Autor(es):: Rodríguez Reche, Alejandro
Fecha de publicación:: (2021)