← Ensayos

Responsabilidad & Filosofía

La responsabilidad penal no fue diseñada para agentes autónomos

El sistema penal asume intencionalidad humana. ¿Qué pasa cuando el agente no es humano?


La pregunta que el derecho penal no puede responder

En 2023, un modelo de IA generó un informe médico falso que fue presentado como prueba en un tribunal de Nueva York. El abogado que lo presentó no sabía que era fabricado. El modelo no sabía que estaba fabricando. Y el sistema legal, diseñado para asignar culpa a sujetos con intención, se encontró con un problema que no tiene categoría: nadie quiso cometer el acto, pero el daño fue real.

Este no es un caso aislado. Es un síntoma de algo más profundo: el derecho penal fue construido sobre la premisa de que todo acto punible tiene un autor con voluntad. Dolo. Culpa. Negligencia. Todas las categorías asumen un sujeto que puede decidir. ¿Qué pasa cuando el agente que produce el daño no decide en ningún sentido reconocible?

El marco que tenemos

El derecho penal moderno — tanto en la tradición continental como en el common law — requiere dos elementos para que exista delito: un acto (actus reus) y una mente culpable (mens rea). Sin mens rea, generalmente no hay delito. Hay excepciones (responsabilidad objetiva en ciertos casos), pero la regla es clara: necesitas intencionalidad o, al menos, negligencia atribuible a un sujeto.

Este marco funcionó razonablemente bien durante siglos porque los únicos agentes capaces de causar daño significativo eran humanos o, en casos excepcionales, corporaciones (que la ley trata como personas ficticias con voluntad derivada de sus directivos).

Pero un sistema de IA no es una persona. Tampoco es una corporación. No tiene voluntad, ni siquiera en el sentido ficcional que el derecho atribuye a las empresas. Y sin embargo, puede producir resultados que, si fueran causados por un humano, constituirían delito.

Tres caminos, ninguno satisfactorio

La doctrina ha propuesto tres soluciones principales. Ninguna funciona completamente.

Responsabilidad del operador

La primera solución dice: no importa que la IA no tenga voluntad. El responsable es quien la usa. Si un abogado presenta evidencia falsa generada por IA, el abogado es responsable — debió verificar.

Esto funciona para casos simples. Pero se desmorona en cadenas largas. ¿Quién es "el operador" de un modelo de lenguaje accesible por API que fue fine-tuneado por una empresa, desplegado por otra, integrado en un producto por una tercera, y usado por un consumidor final que no entiende cómo funciona? La responsabilidad se diluye en cada eslabón de la cadena.

Además, exigir que todo usuario verifique cada output de una IA es económicamente inviable y técnicamente absurdo. ¿Un médico debe repetir cada diagnóstico que sugiere la IA? ¿Un juez debe releer cada resumen de jurisprudencia? Si la respuesta es sí, la IA no sirve para nada. Si la respuesta es no, la responsabilidad del operador es una ficción.

Responsabilidad del fabricante

La segunda solución dice: el responsable es quien creó el sistema. Si OpenAI entrena un modelo que genera desinformación, OpenAI responde.

Esto tiene más lógica desde el derecho de productos defectuosos. Pero el derecho penal requiere algo más que causalidad — requiere culpabilidad. ¿OpenAI quiso que su modelo generara un informe falso? No. ¿Fue negligente en su entrenamiento? Quizás, pero ¿cuál es el estándar de diligencia para entrenar un modelo de lenguaje? No existe. No hay norma técnica, no hay ISO, no hay consenso académico sobre qué constituye un entrenamiento "diligente".

Sin estándar, no hay negligencia. Sin negligencia, no hay responsabilidad penal.

Personalidad jurídica para la IA

La tercera solución es la más radical: darle a la IA una forma de personalidad jurídica. No como persona humana, sino como una nueva categoría — similar a como las corporaciones son "personas" para efectos legales.

Es intelectualmente interesante. Y es profundamente peligroso. Porque crear una personalidad jurídica para la IA permite algo que ninguna de las otras soluciones permite: que nadie más sea responsable. Si la IA es el sujeto jurídico, la empresa que la creó y el usuario que la desplegó tienen un escudo. "No fui yo, fue la IA."

La personalidad jurídica de la IA no es una solución al problema de responsabilidad. Es una forma elegante de eliminarlo.

El problema real es filosófico

Todas estas soluciones fracasan porque intentan resolver un problema filosófico con herramientas jurídicas. Y el problema filosófico es este: el derecho penal presupone una teoría de la acción que no aplica a los sistemas de IA.

Cuando Hegel habla de acción, habla de un sujeto que externaliza su voluntad interior en el mundo. Cuando Jakobs habla de imputación, habla de un sujeto que defrauda expectativas normativas. Cuando Roxin habla de culpabilidad, habla de un sujeto que pudo actuar de otra manera.

Un LLM no externaliza voluntad. No defrauda expectativas (no las tiene). No pudo actuar de otra manera en ningún sentido relevante — su output es determinista dado su input y sus parámetros.

El derecho penal necesita una nueva teoría de la acción. No una que reemplace la existente, sino una que la complemente para cubrir agentes que producen daño sin intención, sin negligencia y sin voluntad.

Lo que propongo

No tengo la respuesta completa. Pero tengo una dirección.

Creo que la solución no está en crear nuevas categorías de sujetos (personalidad jurídica para la IA) ni en forzar las categorías existentes (imputar todo al operador o al fabricante). Está en crear un nuevo régimen de imputación por riesgo que no requiera mens rea en el sentido tradicional.

La idea no es nueva en el derecho — la responsabilidad por riesgo existe en el derecho civil y en el derecho ambiental. Quien crea un riesgo significativo responde por los daños, independientemente de su intención. Pero trasladar esta lógica al derecho penal requiere repensar qué significa "pena" cuando no hay culpa moral.

¿Tiene sentido "castigar" a una empresa por los actos de su IA si no hubo negligencia? Probablemente no en el sentido retributivo. Pero sí en el sentido preventivo: crear incentivos económicos y regulatorios para que quienes despliegan IA internalicen los costos de sus riesgos.

Esto no es derecho penal clásico. Es algo nuevo. Y reconocer que necesitamos algo nuevo — en lugar de forzar lo existente — es el primer paso.

La urgencia

Este no es un debate abstracto. Cada mes que pasa, los sistemas de IA toman decisiones con mayor autonomía y mayor impacto. Diagnósticos médicos. Evaluaciones crediticias. Predicción de reincidencia. Generación de evidencia.

Y cada mes que pasa sin un marco de responsabilidad coherente, los daños se acumulan en un vacío jurídico. No porque no haya leyes — hay demasiadas. Sino porque ninguna fue diseñada para esto.

El derecho penal tiene una actualización pendiente. Y no es opcional.


← Volver a ensayos