¿Que hacer cuando no podemos confiar en los labels? Una implementacion practica

Aceptada

En muchos casos se considera que cuando iniciamos con un problema de ML, todos los datos de entrenamiento se encuentran evaluados con un 100% de precisión. Sin embargo, en sistemas productivos online, rara vez se nos presenta dicho escenario. En esta charla deseo mostrar cómo se atacaron problemas como targets faltantes o no confiables, feedback incompleto en el monitoreo, o limpieza de datos de entrenamiento, dentro de la iniciativa de moderación de artículos prohibidos en el marketplace de MercadoLibre.


Tipo: Charla estandard, 25 minutos

Nivel: Medio

Disertantes: Ramiro Caro

Biografiá del Disertante: Cientifico de datos e Ingeniero Electronico, egresado de la Universidad Nacional de Cordoba. Mas de 10 años trabajando en proyectos enfocados en datos en industrias como ecommerce, petroleo/gas, o distribucion de energia electrica. Actualmente me desempeño como Data Scientist en Mercado Libre en el area de deteccion de articulos prohibidos.

Horario: 13:00 - 13:30 - 29/10/2021

Sala: Main

Etiquetas/Tags: data science data quality ml ops active learning semi supervised learning representation learning

Descripción completa

Cuando hablamos del workflow completo de un sistema de Machine Learning en producción solemos pasar por alto una etapa que es crítica para el suceso del sistema, el etiquetado de datos. En ambientes académicos o de aprendizaje, todos los datos de entrenamiento se encuentran evaluados y las etiquetas son consideradas 100% correctas, con lo cual generalmente no se realiza un análisis más profundo de las mismas. Sin embargo, en sistemas productivos online, rara vez se nos presenta dicho escenario, puede ser que al inicio de un proyecto directamente no contemos con los valores target, que solo contemos con una fracción de los mismos o incluso que los valores asignados no siempre sean correctos. Por otra parte, en la otra punta del pipeline con el monitoreo de modelo, se nos presenta un problema muy emparentado como lo es el feedback incompleto, o sea, que muchas veces no tendremos visibilidad de errores cometidos por el modelo, los cuales muchas veces se perpetúan al reintroducirlos como datos de reentrenamiento. Todos estos escenarios, nos llevan a buscar metodologías para evaluar la confianza de los labels, de multiplicar el impacto de los más confiables y excluir o corregir aquellos los que generen ruido. En esta charla deseo mostrar cómo se atacaron estas problemáticas dentro de la iniciativa de moderación de artículos prohibidos en el marketplace de MercadoLibre, y las lecciones aprendidas.