Actualmente, la opacidad de procesos de aprendizaje, como las redes neuronales profundas, presenta un desafío en la interpretación de resultados para los humanos. La búsqueda de una inteligencia artificial explicativa se ha convertido en un objetivo clave.
Se plantea que la explicabilidad puede lograrse más efectivamente mediante el uso de representaciones adecuadas de datos, como las representaciones heterogéneas multiatributo, que conservan la naturaleza original de los resultados.
En este contexto, este proyecto se enfoca en dos aspectos fundamentales. En primer lugar, se aborda la investigación teórica para definir, analizar y construir funciones de fusión que seleccionen datos representativos en problemas con datos reales y heterogéneos multiatributo. En segundo lugar, se busca aplicar esta investigación a problemas generales de aprendizaje automático o aprendizaje profundo.
Proyecto financiado por:
Más proyectos