Machine learning interpretability.
Aceptada
¿Por qué es importante interpretar los resultados de un modelo? ¿Cómo podemos hacerlo? son las preguntas que intentaremos responder.
Tipo: Charla estandard, 25 minutos
Nivel: Medio
Disertantes: Ariel Rossanigo
Biografiá del Disertante: Ingeniero de software devenido en Data Scientist, Python fan desde 2.3, Profe de Machine Learning e Inteligencia Artificial, Fundador de The Bloom AI.
Horario: 12:30 - 13:00 - 28/10/2021
Sala: Main
Etiquetas/Tags: machine learning interpretability inteligencia artificial
Descripción completa
La charla plantea la importancia de tener explicaciones para los resultados de modelos de Machine Learning y hace un recorrido sobre distintas técnicas creadas para tal fin. Luego de un pequeño repaso sobre modelos explicativos por naturaleza, vamos a ver técnicas agnósticas al modelo e implementaciones de las mismas en Python (al fin y al cabo esto es una PyCon...)