Machine learning interpretability.

Aceptada

¿Por qué es importante interpretar los resultados de un modelo? ¿Cómo podemos hacerlo? son las preguntas que intentaremos responder.


Tipo: Charla estandard, 25 minutos

Nivel: Medio

Disertantes: Ariel Rossanigo

Biografiá del Disertante: Ingeniero de software devenido en Data Scientist, Python fan desde 2.3, Profe de Machine Learning e Inteligencia Artificial, Fundador de The Bloom AI.

Horario: 12:30 - 13:00 - 28/10/2021

Sala: Main

Etiquetas/Tags: machine learning interpretability inteligencia artificial

Descripción completa

La charla plantea la importancia de tener explicaciones para los resultados de modelos de Machine Learning y hace un recorrido sobre distintas técnicas creadas para tal fin. Luego de un pequeño repaso sobre modelos explicativos por naturaleza, vamos a ver técnicas agnósticas al modelo e implementaciones de las mismas en Python (al fin y al cabo esto es una PyCon...)