Monarca: arquitectura y aprendizajes detrás de un asistente tributario construido con Python y RAG

Aceptada

Presentaré la arquitectura y los aprendizajes detrás de Monarca, un asistente conversacional tributario construido en Python que combina RAG, análisis de documentos y verificación en streaming para generar respuestas confiables. La charla mostrará cómo diseñar asistentes complejos, qué errores comunes evitar y qué patrones pueden aplicarse a otros dominios.


Tipo: Charla extendida, 45 minutos (explicar motivos)

Nivel: Medio

Disertantes: Nicolás Agustín Martínez

Biografiá del Disertante: Desarrollador Python especializado en sistemas conversacionales, RAG y verificación de información en tiempo real. Fundador y CTO de Monarca®, un asistente tributario que busca simplificar el acceso a la normativa fiscal mediante IA confiable, trazable y centrada en el usuario. Actualmente trabajo en proyectos de innovación pública y desarrollo de soluciones basadas en FastAPI, agentes evaluadores y arquitecturas de streaming. También soy docente universitario y divulgador en temas de IA aplicada y diseño responsable.

Horario: 10:45 - 11:30 - 29/11/2025

Sala: AUDITORIO

Etiquetas/Tags: python ia rag llm fastapi streaming nlp chatbots data engineering open source

Descripción completa

Monarca es un asistente conversacional tributario desarrollado en Python que busca resolver un problema concreto: brindar información fiscal precisa, trazable y entendible para personas y profesionales. En esta charla voy a recorrer el proceso técnico y conceptual detrás de su arquitectura, desde los primeros prototipos hasta el sistema actual basado en FastAPI, agentes evaluadores, pipelines de recuperación y un flujo de verificación on-the-fly. Exploraremos: Cómo diseñar un sistema RAG robusto más allá del ejemplo típico (indexación documental, normalización, chunking y scoring). Por qué las respuestas generadas por un LLM requieren verificación y cómo implementar un pipeline de fact-checking en paralelo mientras el modelo genera texto. Patrones de Python usados en producción: streaming SSE, workers, agentes evaluadores y modelos Pydantic para orquestación. Errores comunes al construir asistentes (alucinaciones, contexto mal recuperado, evaluaciones débiles) y estrategias prácticas para mitigarlos. Qué aprendimos al integrar el sistema con usuarios reales y cómo priorizar trazabilidad, simplicidad y explicabilidad. La charla está pensada para desarrolladores Python interesados en construir asistentes reales, no demos de laboratorio: veremos decisiones concretas, código conceptual y aprendizajes trasladables a cualquier proyecto conversacional o RAG.