Machine learning interpretability.

Accepted

¿Por qué es importante interpretar los resultados de un modelo? ¿Cómo podemos hacerlo? son las preguntas que intentaremos responder.


Type: Charla estandard, 25 minutos

Level: Medium

Speakers: Ariel Rossanigo

Speakers Bio: Ingeniero de software devenido en Data Scientist, Python fan desde 2.3, Profe de Machine Learning e Inteligencia Artificial, Fundador de The Bloom AI.

Time: 12:30 - 13:00 - 10/28/2021

Room: Main

Labels: machine learning interpretability inteligencia artificial

Description

La charla plantea la importancia de tener explicaciones para los resultados de modelos de Machine Learning y hace un recorrido sobre distintas técnicas creadas para tal fin. Luego de un pequeño repaso sobre modelos explicativos por naturaleza, vamos a ver técnicas agnósticas al modelo e implementaciones de las mismas en Python (al fin y al cabo esto es una PyCon...)