Construcción
Por qué construí un simulador de juicios con IA
La historia detrás de LitisLab y lo que aprendí sobre los límites de los LLMs para razonamiento legal.
El problema que vi
En Ecuador, un abogado penalista puede llegar a su primera audiencia oral sin haber practicado jamás un interrogatorio real. La formación es teórica: códigos, doctrina, jurisprudencia. Todo en papel. Pero el juicio oral no es papel — es ritmo, presión, objeciones en tiempo real, testigos que mienten, jueces que pierden paciencia.
Es como enseñar a nadar leyendo sobre hidrodinámica.
Lo vi en la facultad, lo vi en los tribunales, y eventualmente dejé de quejarme y empecé a construir.
La idea
LitisLab es un simulador de audiencias penales orales que usa modelos de lenguaje para generar casos, personificar testigos, jueces y contrapartes, y evaluar el desempeño del abogado en tiempo real. No es un chatbot legal. No es un asistente para redactar escritos. Es un entorno de práctica donde las cosas salen mal, como en la realidad.
El abogado elige su rol — fiscal o defensor —, recibe un expediente generado por IA con informes policiales, pericias y prueba documental, y entra a una audiencia donde debe interrogar testigos con personalidades distintas mientras la contraparte objeta y el juez arbitra.
La premisa es simple: si los pilotos practican en simuladores antes de volar, los abogados deberían poder practicar antes de defender la libertad de alguien.
Lo que aprendí sobre los LLMs
Construir LitisLab me enseñó más sobre las limitaciones de los modelos de lenguaje que cualquier paper académico.
Los LLMs no razonan jurídicamente. Pueden generar texto que parece razonamiento legal — con estructura, citas y conclusiones — pero no aplican silogismos. No distinguen entre analogía válida e inválida. No entienden el peso de la prueba. Lo que hacen es predecir la siguiente palabra más probable en un contexto legal. A veces eso coincide con un argumento correcto. A veces no. Y la diferencia importa cuando hay una persona en el banquillo.
La coherencia es el verdadero desafío. Hacer que un testigo generado por IA mantenga su historia a lo largo de 20 preguntas es exponencialmente más difícil que generar una respuesta aislada. El modelo necesita recordar lo que dijo en la pregunta 3 cuando responde la pregunta 17, y además mantener un perfil psicológico consistente. No hay solución elegante — es ingeniería de contexto pura: cuánto historial pasas, cómo lo resumes, qué priorizas.
La latencia mata la inmersión. Un testigo que tarda 3 segundos en responder rompe la ilusión de la audiencia. Implementé un sistema de "vamp" — respuestas inmediatas de relleno ("Mire...", "Bueno...") que se reproducen mientras el modelo genera la respuesta real. Es un truco de diseño, no de IA. Pero marca la diferencia entre un producto que se siente real y uno que se siente roto.
La decisión técnica más difícil
LitisLab usa reconocimiento de voz para que el abogado hable en lugar de escribir. Esa decisión definió todo lo demás.
Cuando el input es texto, controlas el ritmo. Cuando es voz, el usuario controla el ritmo. Y eso significa que necesitas: detección de fin de turno, procesamiento de audio en tiempo real, manejo de ruido ambiente, cancelación de respuestas si la contraparte objeta a mitad de la declaración del testigo...
Cada una de esas cosas tiene edge cases que ningún tutorial de "build an AI app" cubre. La detección de fin de turno en español es particularmente difícil porque no hay marcadores universales de cierre — un "gracias" puede ser cortesía o cierre de interrogatorio, dependiendo del tono y el contexto.
Lo resolví con una lista de 22 señales de cierre y un buffer de silencio. No es perfecto. Pero funciona lo suficiente como para que el 90% de las sesiones fluyan sin interrupciones falsas.
Lo que esto no es
LitisLab no es un reemplazo del sistema judicial. No es un juez automático. No es una herramienta para que la IA decida casos.
Es una herramienta de práctica. De repetición. De cometer errores en un entorno donde nadie va a prisión por tu inexperiencia. Y esa distinción importa, porque la conversación sobre IA y derecho tiende a polarizarse entre utopía ("la IA resolverá todo") y distopía ("la IA destruirá todo"). La realidad es más mundana: la IA es una herramienta. Lo que importa es qué construyes con ella y para quién.
Yo elegí construir un lugar donde un abogado joven puede equivocarse veinte veces antes de equivocarse una vez de verdad.
Lo que sigue
LitisLab es funcional. Pero está lejos de estar terminado. Los próximos pasos incluyen más tipos penales, evaluación más granular, y eventualmente adaptar el sistema para otras jurisdicciones latinoamericanas.
No escribo esto como un pitch. Lo escribo porque el proceso de construir — de chocar con las limitaciones reales de la tecnología en lugar de teorizar sobre ellas — es lo que me enseñó a pensar con más claridad sobre qué puede y qué no puede hacer la IA en el derecho.
Y eso, creo, vale más que otro paper sobre el tema.
← Volver a ensayos