El avance de la inteligencia artificial generativa (IA-GEN) está transformando múltiples sectores, y el mundo del Derecho no es una excepción. Aunque estamos acostumbrados a ver cómo la tecnología automatiza tareas repetitivas, ahora nos enfrentamos a una realidad aún más innovadora: herramientas capaces de redactar textos jurídicos complejos. Pero, ¿dónde están los límites? ¿Y qué dice ya al respecto la Justicia?
La IA generativa, que muchos identifican con ChatGPT pero que a día de hoy está representada por decenas de soluciones, ya es capaz de elaborar borradores de contratos, informes e incluso documentos procesales con una sorprendente calidad. Si bien aún se debate si estos textos pueden igualar el trabajo de un jurista experimentado, su utilidad como apoyo está fuera de discusión. Al fin y al cabo, se trata de herramientas al servicio de las personas, no de sustitutos.
De hecho, esta tecnología ya tiene un respaldo legal en España. El artículo 57 del Real Decreto-ley 6/2023 habla de «actuaciones asistidas», permitiendo que los sistemas informáticos generen borradores de resoluciones o escritos judiciales. Pero recoge un matiz esencial: estos textos nunca serán válidos por sí solos, sino que deben ser precisamente validados por una autoridad judicial o procesal competente. Pero no importa lo que diga, en este caso con abrumadora lógica, la norma. La inteligencia humana sigue siendo insustituible en este punto, aunque no lo respalde el ordenamiento jurídico.
También tenemos jurisprudencia que aborda directamente esta cuestión. En una resolución del Tribunal Superior de Justicia (Auto 2/2024, de 4 de septiembre), se analiza un caso en el que un abogado usó IA generativa para redactar parte de una querella… con un resultado poco afortunado. Uno de los párrafos citaba un artículo del Código Penal de Colombia, confundido con el español por culpa de un error al usar ChatGPT, las famosas “alucinaciones” de la IA muchas veces provocadas por el propio error del usuario, novato en el arte del prompt. El letrado, reconociendo su fallo, pidió disculpas y explicó que fue un error material derivado del uso inadecuado de la herramienta.
Lo interesante es que el Tribunal no rechaza el uso de esta tecnología. Al contrario, reconoce que estas herramientas emergentes tienen cabida en los procedimientos judiciales, siempre que se utilicen con diligencia, ética y responsabilidad. Eso sí, deja muy claro que el uso de IA no exime al profesional de su deber de revisar y asumir la responsabilidad final del contenido que presenta.
En resumen: sí, se puede utilizar IA generativa en la redacción de escritos jurídicos, incluso en el ámbito judicial. Pero no se trata de delegar ciegamente el trabajo en una máquina. Al contrario, el profesional debe supervisar, verificar y asumir lo que entrega. El error descrito recibe por nombre «sesgo de automatización». En definitiva, al final del día, quien firma un documento sigue siendo una persona, no un algoritmo. Y esta persona es la responsable de todo lo que diga dicho documento. De hecho, el ordenamiento jurídico está repleto de responsabilidades, y todas son humanas.
Lo que esta resolución nos enseña es que la IA no sustituye al jurista, sino que lo acompaña. Es un recurso más, potente y útil, que bien empleado puede ahorrar tiempo y mejorar la calidad de los textos. Pero también puede meter la pata si se usa sin control. Por eso, la clave está en combinar lo mejor de ambos mundos: la agilidad de la tecnología y el criterio de la inteligencia humana.
Más allá del caso concreto, esta resolución judicial plantea un debate mucho más profundo sobre el papel de la IA en profesiones tradicionalmente asociadas al juicio humano, al conocimiento técnico, al desarrollo profesional de carreras complejas y a la ética profesional en su desempeño. La posibilidad de que una máquina redacte argumentos jurídicos, cite jurisprudencia o estructure una demanda nos obliga a replantear los límites entre automatización y responsabilidad. No se trata solo de evitar errores como el citado, sino de preguntarnos qué valor añadido aporta el profesional del Derecho cuando la tecnología es capaz de hacer parte del trabajo. Como mínimo, diría que aporta experiencia y esa necesaria dimensión humana de las cosas más allá de la frialdad de la máquina. Y todo ello sin entrar en aspectos eminentemente técnicos, que de inicio pensamos que un buen profesional domina.
La clave no está en competir con la máquina, sino en integrarla de forma ética y estratégica en el desarrollo de nuestro trabajo. La IA puede liberar a los profesionales de tareas repetitivas, permitiéndoles centrarse en lo que realmente requiere criterio, experiencia y sentido común. Pero también exige nuevas competencias: saber redactar buenos prompts, entender el funcionamiento del modelo, anticipar sesgos, y sobre todo, no perder nunca de vista que el Derecho no es solo una técnica, sino también una herramienta de justicia, dicho en sentido amplio. La inteligencia artificial generativa, bien entendida, no debe hacernos menos humanos, sino más eficientes, más reflexivos y más conscientes de nuestra función en una sociedad democrática. La mencionada función de «revisar» será esencial para lograrlo.