Machine learning interpretability.
Accepted
¿Por qué es importante interpretar los resultados de un modelo? ¿Cómo podemos hacerlo? son las preguntas que intentaremos responder.
Type: Charla estandard, 25 minutos
Level: Medium
Speakers: Ariel Rossanigo
Speakers Bio: Ingeniero de software devenido en Data Scientist, Python fan desde 2.3, Profe de Machine Learning e Inteligencia Artificial, Fundador de The Bloom AI.
Time: 12:30 - 13:00 - 10/28/2021
Room: Main
Labels: machine learning interpretability inteligencia artificial
Description
La charla plantea la importancia de tener explicaciones para los resultados de modelos de Machine Learning y hace un recorrido sobre distintas técnicas creadas para tal fin. Luego de un pequeño repaso sobre modelos explicativos por naturaleza, vamos a ver técnicas agnósticas al modelo e implementaciones de las mismas en Python (al fin y al cabo esto es una PyCon...)