Inteligencia artificial, motivación judicial y nulidad de sentencia en un fallo relevante de Esquel

La Cámara en lo Penal de Esquel anuló una sentencia condenatoria al advertir la incorporación no transparente de un pasaje generado por inteligencia artificial dentro de la fundamentación judicial. La resolución reafirma el carácter indelegable de la función de juzgar, la necesidad de trazabilidad en la motivación y la incompatibilidad entre el uso encubierto de IA en sentencias y las exigencias del debido proceso.

La incorporación de herramientas de inteligencia artificial generativa al ámbito judicial plantea uno de los debates más sensibles del derecho procesal contemporáneo. La cuestión ya no se limita a discutir si la tecnología puede colaborar con tareas auxiliares, sino a definir con precisión hasta dónde puede llegar esa asistencia sin afectar principios estructurales del proceso y de la función jurisdiccional. En ese contexto, la reciente decisión de la Cámara en lo Penal de Esquel, que anuló una sentencia condenatoria al advertir la incorporación de un pasaje generado por una herramienta de IA sin control ni transparencia adecuados, constituye un precedente de enorme relevancia institucional.

El dato que activó la revisión del caso fue particularmente elocuente: dentro del propio texto de la sentencia aparecía incrustada una expresión impropia del lenguaje jurisdiccional, que decía “Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar”. Esa sola frase permitió constatar que, al menos en una porción sustancial de la fundamentación, el contenido no respondía al razonamiento humano directamente exteriorizado por el magistrado en el marco de su función constitucional, sino a la intervención de una herramienta generativa cuya utilización no había sido informada a las partes, delimitada en su alcance ni sometida a control explícito dentro del expediente.

La gravedad de lo sucedido excede ampliamente la anécdota tecnológica. No se trata de un problema estilístico, de prolijidad o de técnica de redacción. Lo que la Cámara detectó fue una afectación potencialmente severa del debido proceso, de la trazabilidad de la motivación judicial y del carácter indelegable de la función de juzgar. La decisión judicial no es un mero producto final que pueda ensamblarse con cualquier herramienta sin consecuencias jurídicas. Es un acto de autoridad estatal que exige autoría responsable, razonamiento verificable y posibilidad real de control por las partes y por los tribunales revisores.

En el caso concreto, la sentencia anulada —dictada el 4 de junio de 2025— había impuesto una condena de dos años y seis meses de prisión efectiva por robo simple. Frente a la irregularidad advertida, la Cámara revocó el pronunciamiento y ordenó la realización de un nuevo juicio ante un magistrado distinto. El remedio elegido muestra con claridad que no se consideró el defecto como un vicio menor subsanable o inocuo, sino como una irregularidad que contaminaba de raíz la validez del acto jurisdiccional.

Ese punto merece ser destacado. En materia penal, la motivación no es un adorno ni una formalidad complementaria: es uno de los núcleos esenciales de validez de la sentencia. Allí se exterioriza el recorrido intelectual del juez, la valoración de la prueba, la interpretación del derecho aplicable y la justificación del ejercicio del poder punitivo estatal. Cuando esa fundamentación aparece interferida por un texto generado externamente, sin aclaración, sin delimitación y sin control transparente, lo que se resiente no es solo la calidad argumentativa del fallo, sino la posibilidad misma de verificar si quien juzga realmente asumió personalmente el razonamiento que la Constitución y la ley le exigen.

La decisión de la Cámara se apoya, en definitiva, sobre principios elementales del derecho procesal y constitucional. El primero de ellos es que la función de juzgar es indelegable. El segundo, que el debido proceso exige que la motivación judicial sea trazable, controlable y auténticamente atribuible al juez que la firma. El tercero, que el juez natural no puede reemplazar su deber de fundamentar por la utilización opaca de un sistema automatizado, sobre todo cuando las partes no han sido informadas sobre el uso, alcance, límites o supervisión de esa asistencia tecnológica.

Desde esa perspectiva, el caso obliga a distinguir con claridad dos fenómenos muy distintos. Una cosa es el uso de herramientas digitales o de inteligencia artificial en funciones auxiliares, declaradas, acotadas y sometidas a control humano efectivo. Otra muy distinta es la incorporación no explicitada de texto generado por un sistema automatizado en una zona neurálgica de la sentencia, como si se tratara de razonamiento judicial propio. En el primer supuesto, la tecnología puede mejorar eficiencia, organización o accesibilidad. En el segundo, puede comprometer directamente la validez constitucional del acto jurisdiccional.

Por eso resulta especialmente valioso que la Cámara haya vinculado el caso con el Acuerdo Plenario N.° 5435 del Superior Tribunal de Justicia de Chubut, que establece pautas sobre el uso ético y responsable de la IA generativa en el Poder Judicial. La referencia no es secundaria. Permite mostrar que el problema no es la tecnología en sí misma, sino la ausencia de reglas claras de transparencia, control humano efectivo y resguardo de confidencialidad. Allí se ubica, justamente, la línea que separa una utilización institucionalmente admisible de una práctica incompatible con las exigencias mínimas de legitimidad de la decisión judicial.

Ese marco es útil también para evitar falsos dilemas. No se trata de demonizar la innovación tecnológica ni de sostener que toda herramienta de IA deba ser excluida del ámbito judicial. La experiencia comparada y la propia evolución interna del sistema muestran que pueden existir usos compatibles con el debido proceso, por ejemplo en tareas de sistematización, clasificación, búsqueda o elaboración de resúmenes claramente identificados como materiales auxiliares. Lo jurídicamente inadmisible es que esa asistencia se convierta, de manera encubierta, en sustitución parcial del razonamiento jurisdiccional que el juez debe desarrollar, controlar y asumir personalmente.

Lo ocurrido en Esquel dialoga, precisamente, con ese contexto más amplio. En distintos ámbitos judiciales ya se exploran usos limitados de IA para mejorar accesibilidad o lenguaje claro, siempre que se explicite su función y que el contenido decisorio permanezca bajo autoría y supervisión humana. La diferencia con el caso anulado es nítida. Una cosa es acompañar una decisión judicial con materiales complementarios identificados; otra, muy distinta, es insertar dentro de la propia sentencia un fragmento generado por un chatbot, sin advertencia, sin revisión transparente y sin posibilidad real de control por las partes.

Desde la perspectiva de la litigación, la decisión deja varias enseñanzas prácticas. La primera es que la transparencia documental se vuelve cada vez más importante. El acceso a copias íntegras, la revisión detallada de sentencias y la trazabilidad del expediente resultan esenciales para detectar irregularidades que, de otro modo, podrían pasar inadvertidas. La segunda es que el agravio vinculado con el uso de IA en decisiones judiciales no debe ser planteado como una moda tecnológica o una objeción superficial, sino como una cuestión profundamente ligada al corazón del acto jurisdiccional: la motivación, la autoría, la imparcialidad y la posibilidad de revisión.

La frase “listo para copiar y pegar”, según trascendió en distintos medios, funcionó como el hilo visible que permitió desarmar una irregularidad mucho más seria. No fue la frase en sí lo que volvió inválida la sentencia, sino lo que esa frase reveló: que una porción de la fundamentación no había quedado integrada al expediente de forma compatible con las exigencias del debido proceso. El remedio, en ese escenario, no podía ser otro que la nulidad y la celebración de un nuevo juicio ante otro magistrado, para restablecer la garantía de una decisión emanada de un razonamiento judicial auténtico, controlable y personalmente asumido.

Este precedente también anticipa un debate regulatorio y doctrinario que solo va a intensificarse. Así como el proceso penal y civil se vieron obligados a desarrollar reglas específicas sobre prueba digital, cadena de custodia electrónica o autenticidad documental, el avance de la IA exigirá muy pronto protocolos de trazabilidad más precisos: cuándo puede usarse, para qué tareas, con qué nivel de supervisión, bajo qué deberes de revelación y con qué consecuencias procesales si esos estándares son incumplidos. La resolución de Esquel ofrece un punto de partida razonable: la IA no está prohibida en abstracto, pero su uso encubierto en la fundamentación de una sentencia es incompatible con el debido proceso y con la función jurisdiccional.

Desde una perspectiva institucional, el fallo también tiene una función pedagógica importante. Recuerda que la autoridad de una decisión judicial no proviene de la sofisticación de la herramienta utilizada para redactarla, sino de la responsabilidad humana de quien la firma, la explica y responde jurídicamente por ella. La legitimidad del fallo nace de esa combinación entre independencia, motivación personal y posibilidad de control, no de la eficiencia técnica con la que pueda haberse ensamblado su texto.

En Estudio VBA entendemos que este caso marca un precedente de enorme importancia para el derecho procesal y para la futura regulación del uso de inteligencia artificial en tribunales. La innovación tecnológica puede y debe ser integrada al sistema judicial, pero únicamente dentro de límites claros, auditables y compatibles con los principios constitucionales que rigen la función de juzgar. Allí donde la tecnología mejora acceso, organización o claridad, suma. Allí donde pretende sustituir, en silencio, aquello que no puede delegarse —pensar, motivar y decidir—, compromete la validez misma del acto jurisdiccional.

En definitiva, la nulidad dispuesta por la Cámara en lo Penal de Esquel no debe leerse solo como una reacción frente a un error singular, sino como la afirmación de una regla de fondo: el uso de inteligencia artificial en el ámbito judicial exige transparencia, control humano efectivo y responsabilidad institucional. Sin esos presupuestos, la herramienta deja de ser apoyo y se convierte en una amenaza para la legitimidad del proceso. Y esa frontera, en un Estado de Derecho, no puede ser ambigua.

acerca de 

Experiencia, Responsabilidad
y Respaldo

 En Estudio VBA analizamos los desafíos jurídicos emergentes de la tecnología aplicada al proceso judicial, incluyendo inteligencia artificial, prueba digital, motivación de sentencias y garantías del debido proceso. Ofrecemos una mirada técnica y estratégica sobre los nuevos riesgos y estándares que atraviesan la litigación contemporánea.