Sí, pero con inteligencia.
Por: Paul Daniel Moriel Quiralte
La inteligencia artificial (IA) ya está en los tribunales. No como amenaza, sino como herramienta. El dilema no es si debe usarse, sino cómo hacerlo sin deshumanizar la justicia y usándola de manera correcta.
El caso “Provincia del Chubut c/ P.R.A.”, resuelto el 15 de octubre de 2025 por la Cámara Penal de Esquel, en Argentina, la Cámara anuló de oficio una sentencia penal al descubrir que el juez había utilizado inteligencia artificial generativa (presumiblemente ChatGPT) para redactar parte del fallo. La prueba fue una frase que quedó incrustada en el texto:
“Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar.”
Aquella línea reveló que el juez había delegado una parte esencial del razonamiento en una herramienta automatizada. La resolución, de 52 páginas, es hoy un documento pionero sobre ética judicial y tecnología. La Cámara señaló que el juez violó el principio del juez natural, pues la decisión no fue plenamente humana; omitió la trazabilidad del razonamiento y vulneró la confidencialidad del caso al introducir datos en una plataforma externa.
El tribunal invocó el Acuerdo Plenario N° 5435/25 del Superior Tribunal de Justicia de Chubut, que establece directrices para el uso ético de la IA: control humano, mitigación de riesgos, transparencia, capacitación y prohibición expresa de delegar decisiones judiciales en sistemas automáticos. En otras palabras, el problema no fue el uso de la IA, sino el mal uso, la falta de control y de honestidad intelectual.
Este precedente trasciende fronteras. En México, el debate también está abierto y ya tenemos una respuesta jurídica contundente. El Segundo Tribunal Colegiado en Materia Civil del Segundo Circuito publicó la Tesis Aislada 2031010, titulada “Inteligencia artificial aplicada en procesos jurisdiccionales. Elementos mínimos que deben observarse para su uso ético y responsable con perspectiva de derechos humanos” (Semanario Judicial de la Federación, 22 de agosto de 2025).
Este tribunal mexicano no prohíbe el uso de la IA; al contrario, lo regula desde la ética judicial y los derechos humanos. Su criterio es claro: las personas juzgadoras pueden emplear herramientas de IA siempre que respeten cuatro principios mínimos:
- Proporcionalidad e inocuidad: la IA solo debe usarse en lo necesario y sin sustituir el razonamiento jurídico.
- Protección de datos personales: ningún expediente ni información sensible debe exponerse a plataformas sin resguardo institucional.
- Transparencia y explicabilidad: el juez debe informar que utilizó IA, explicar qué datos ingresó y cómo llegó al resultado.
- Supervisión y decisión humanas: la IA puede asistir, pero la decisión final pertenece exclusivamente al ser humano.
Este criterio, pionero en México, convierte a nuestro país en un referente regional. La IA puede fortalecer la eficiencia judicial, facilitando cálculos, búsquedas jurisprudenciales o redacción de borradores, pero debe hacerlo bajo el principio de control humano efectivo.
El contraste entre Esquel y México es el contraste entre la imprudencia y la prudencia. En Argentina, el juez fue investigado por usar la IA sin control ni trazabilidad. En México, un tribunal federal utilizó la IA bajo autocontención, documentando cada paso, garantizando la transparencia y el debido proceso.
Ambos casos enseñan algo esencial: la inteligencia artificial no es el problema; el problema es la ausencia de criterio humano. Un juez puede servirse de un asistente digital, pero no delegarle la razón de su sentencia. Puede usar tecnología, pero no abdicar de su responsabilidad moral.
El Derecho es una ciencia humana, no algorítmica. Como recordó la Cámara de Esquel, citando a Piero Calamandrei, “el juez no es una máquina de silogismos, sino una conciencia viva que recrea la justicia con sensibilidad humana”. Si la IA se usa sin ética, convierte al juez en escribano de la máquina; si se usa con prudencia, puede ser su mejor aliada para garantizar decisiones más informadas, coherentes y transparentes.
En México, la tesis 2031010 abre el camino hacia una justicia digital con rostro humano. Ahora toca a los poderes judiciales institucionalizar esas buenas prácticas: protocolos de uso, capacitación técnica y ética, trazabilidad de los prompts y declaración expresa de uso en las resoluciones. La tecnología puede ser una herramienta de equidad si se gobierna con responsabilidad.
No se trata de prohibir a las personas juzgadoras usar inteligencia artificial. Se trata de enseñarles a usarla bien: con prudencia, ética y rendición de cuentas. Porque, como advirtió el caso argentino, cuando el juez deja de pensar, la justicia se desprograma.
Referencias:
- Cámara Penal de Esquel. (2025, 15 de octubre). Provincia del Chubut c/ P.R.A. – Nulidad de sentencia por uso de inteligencia artificial en su redacción [Resolución judicial]. Microjuris Argentina. https://aldiaargentina.microjuris.com/wp-content/uploads/2025/10/PROVINCIA-DEL-CHUBUT-c-PRA.pdf
- Segundo Tribunal Colegiado en Materia Civil del Segundo Circuito. (2025, 22 de agosto). Inteligencia artificial aplicada en procesos jurisdiccionales. Elementos mínimos que deben observarse para su uso ético y responsable con perspectiva de derechos humanos (Tesis aislada II.2o.C.9 K [11a.]). Semanario Judicial de la Federación. https://sjf2.scjn.gob.mx/detalle/tesis/2031010