Redacción
Viernes, 10 de Abril de 2026
MADRID
El CGPJ estudia sancionar a un magistrado por usar ChatGPT para elaborar el borrador de una sentencia
La inteligencia artificial ya no llama a la puerta de la Justicia: ha entrado. Y lo ha hecho de la peor manera posible. El Consejo General del Poder Judicial estudia sancionar a un magistrado de una Audiencia Provincial por haber utilizado ChatGPT para elaborar el borrador de una sentencia, en un episodio que amenaza con convertirse en uno de los casos más delicados hasta la fecha sobre los límites del uso de la IA en el ejercicio de la potestad jurisdiccional.
No se trata de una discusión académica ni de un simple exceso de confianza con una herramienta tecnológica. Lo que está sobre la mesa es si un juez puede descargar en una inteligencia artificial una tarea que pertenece al núcleo más íntimo de su función: estudiar el asunto, valorar jurídicamente las actuaciones y motivar una resolución. Dicho de forma más cruda: si puede dejar que una máquina le haga, en parte, el trabajo de juzgar.
El promotor de la acción disciplinaria, Ricardo Gonzalo Conde, considera que no. Por eso ha propuesto una sanción de quince días de suspensión y una multa de 501 euros para el magistrado. La Fiscalía, en cambio, se inclina por el archivo del expediente, al entender que no concurre infracción disciplinaria. Será ahora la Comisión Disciplinaria del CGPJ la que decida si estamos ante una extralimitación reprobable o ante una conducta impropia pero no sancionable.
Lo sucedido resulta especialmente llamativo por la forma en que se descubrió. Según ha trascendido, el magistrado dejó sin borrar en el texto de la resolución las propias preguntas formuladas a ChatGPT. Es decir, la huella del uso de la inteligencia artificial quedó incrustada en el borrador de la sentencia. No fue una denuncia externa ni una auditoría tecnológica: fue el propio descuido del ponente lo que delató el procedimiento seguido.
Pero el problema no acaba ahí. Según el criterio del promotor, el magistrado habría suministrado a la herramienta las actuaciones judiciales para obtener de ella texto argumentativo con el que construir la resolución. Y eso cambia por completo la dimensión del asunto. Porque una cosa es usar una herramienta para búsqueda documental, corrección gramatical o sistematización de materiales, y otra muy distinta es servirse de ella para levantar la arquitectura argumental de una sentencia.
El reproche disciplinario, de hecho, no se centra en la utilización de la inteligencia artificial per se, sino en haberla empleado, presuntamente, para eludir el cumplimiento personal de la función jurisdiccional. El promotor viene a sostener que el magistrado no recurrió a una ayuda accesoria, sino que trató de externalizar una parte esencial de la motivación judicial mediante una herramienta ajena al sistema institucional de Justicia y sin garantías suficientes.
A ello se suma otro elemento todavía más inquietante: la posible exposición de datos personales contenidos en los autos. Según las mismas fuentes, el juez habría cargado en la herramienta la totalidad de las actuaciones sin adoptar la más mínima cautela protectora respecto de la información sensible que figuraba en el procedimiento. Si esto se confirma, ya no estaríamos solo ante un debate sobre autoría intelectual de la sentencia, sino también ante un problema serio de confidencialidad, seguridad de la información y respeto a derechos fundamentales.
La gravedad institucional del caso es evidente. Un juez no es un redactor cualquiera, ni una sentencia un simple texto que pueda componerse a base de indicaciones introducidas en una plataforma conversacional. La sentencia es la expresión formal del juicio jurídico de un órgano investido de independencia, sometido únicamente al imperio de la ley y personalmente responsable de su decisión. Cuando esa motivación se desplaza, aunque sea parcialmente, hacia una inteligencia artificial, lo que se resiente no es solo la calidad técnica del texto: se resiente la propia idea de jurisdicción.
No es casualidad que el asunto estalle poco después de que el CGPJ aprobara, el pasado 28 de enero, una instrucción específica sobre el uso de inteligencia artificial en la Justicia. En ella se dejó claro que la IA no puede dictar sentencias, valorar hechos o pruebas ni aplicar el Derecho sin supervisión y control humano constante, real, consciente y efectivo. La advertencia no era retórica. Era, en realidad, una línea roja institucional: la tecnología puede asistir; nunca sustituir.
Esa misma instrucción insiste en que la inteligencia artificial no puede suplir a los miembros de la Carrera Judicial en ámbitos como la actividad jurisdiccional, la independencia judicial, la responsabilidad personal en la decisión, la protección de los derechos fundamentales o la garantía de confidencialidad y seguridad. Además, el CGPJ precisó que los jueces solo podrán utilizar aplicaciones facilitadas por las administraciones competentes en materia de Justicia o directamente por el propio Consejo, y siempre tras los controles oportunos.
El expediente abierto a este magistrado obliga a afrontar una pregunta incómoda, pero inaplazable: ¿hasta dónde puede entrar la inteligencia artificial en un juzgado sin erosionar la esencia misma de la función de juzgar? Porque el peligro no reside únicamente en que una máquina redacte frases más o menos pulidas, sino en la tentación de convertir el razonamiento judicial en un producto asistido externamente, opaco en su proceso de elaboración y potencialmente incompatible con las exigencias constitucionales de independencia, motivación y responsabilidad.
Conviene no engañarse. La cuestión no es si la Justicia debe modernizarse. Claro que debe hacerlo. La cuestión es si esa modernización puede admitir que la sentencia deje de ser, en lo sustancial, obra del juez para pasar a convertirse en el resultado de una interacción con un sistema algorítmico. Y ahí la respuesta debe ser rotunda. Una justicia asistida tecnológicamente puede ser más eficaz; una justicia delegada en la inteligencia artificial deja de ser plenamente justicia para convertirse en otra cosa.
Lo que decida ahora el CGPJ tendrá un valor que va mucho más allá del caso concreto. No resolverá solo sobre la conducta de un magistrado. Fijará, en buena medida, el mensaje institucional que se lanza a toda la Carrera Judicial: si la IA es un apoyo subordinado al criterio humano o si, por la vía de los hechos, puede abrirse paso como sustituto encubierto de la deliberación judicial. Y en ese punto no debería haber equívocos. El juez puede servirse de herramientas. Lo que no puede hacer es dejar que la herramienta empiece a juzgar por él.

No se trata de una discusión académica ni de un simple exceso de confianza con una herramienta tecnológica. Lo que está sobre la mesa es si un juez puede descargar en una inteligencia artificial una tarea que pertenece al núcleo más íntimo de su función: estudiar el asunto, valorar jurídicamente las actuaciones y motivar una resolución. Dicho de forma más cruda: si puede dejar que una máquina le haga, en parte, el trabajo de juzgar.
El promotor de la acción disciplinaria, Ricardo Gonzalo Conde, considera que no. Por eso ha propuesto una sanción de quince días de suspensión y una multa de 501 euros para el magistrado. La Fiscalía, en cambio, se inclina por el archivo del expediente, al entender que no concurre infracción disciplinaria. Será ahora la Comisión Disciplinaria del CGPJ la que decida si estamos ante una extralimitación reprobable o ante una conducta impropia pero no sancionable.
Lo sucedido resulta especialmente llamativo por la forma en que se descubrió. Según ha trascendido, el magistrado dejó sin borrar en el texto de la resolución las propias preguntas formuladas a ChatGPT. Es decir, la huella del uso de la inteligencia artificial quedó incrustada en el borrador de la sentencia. No fue una denuncia externa ni una auditoría tecnológica: fue el propio descuido del ponente lo que delató el procedimiento seguido.
Pero el problema no acaba ahí. Según el criterio del promotor, el magistrado habría suministrado a la herramienta las actuaciones judiciales para obtener de ella texto argumentativo con el que construir la resolución. Y eso cambia por completo la dimensión del asunto. Porque una cosa es usar una herramienta para búsqueda documental, corrección gramatical o sistematización de materiales, y otra muy distinta es servirse de ella para levantar la arquitectura argumental de una sentencia.
El reproche disciplinario, de hecho, no se centra en la utilización de la inteligencia artificial per se, sino en haberla empleado, presuntamente, para eludir el cumplimiento personal de la función jurisdiccional. El promotor viene a sostener que el magistrado no recurrió a una ayuda accesoria, sino que trató de externalizar una parte esencial de la motivación judicial mediante una herramienta ajena al sistema institucional de Justicia y sin garantías suficientes.
A ello se suma otro elemento todavía más inquietante: la posible exposición de datos personales contenidos en los autos. Según las mismas fuentes, el juez habría cargado en la herramienta la totalidad de las actuaciones sin adoptar la más mínima cautela protectora respecto de la información sensible que figuraba en el procedimiento. Si esto se confirma, ya no estaríamos solo ante un debate sobre autoría intelectual de la sentencia, sino también ante un problema serio de confidencialidad, seguridad de la información y respeto a derechos fundamentales.
La gravedad institucional del caso es evidente. Un juez no es un redactor cualquiera, ni una sentencia un simple texto que pueda componerse a base de indicaciones introducidas en una plataforma conversacional. La sentencia es la expresión formal del juicio jurídico de un órgano investido de independencia, sometido únicamente al imperio de la ley y personalmente responsable de su decisión. Cuando esa motivación se desplaza, aunque sea parcialmente, hacia una inteligencia artificial, lo que se resiente no es solo la calidad técnica del texto: se resiente la propia idea de jurisdicción.
No es casualidad que el asunto estalle poco después de que el CGPJ aprobara, el pasado 28 de enero, una instrucción específica sobre el uso de inteligencia artificial en la Justicia. En ella se dejó claro que la IA no puede dictar sentencias, valorar hechos o pruebas ni aplicar el Derecho sin supervisión y control humano constante, real, consciente y efectivo. La advertencia no era retórica. Era, en realidad, una línea roja institucional: la tecnología puede asistir; nunca sustituir.
Esa misma instrucción insiste en que la inteligencia artificial no puede suplir a los miembros de la Carrera Judicial en ámbitos como la actividad jurisdiccional, la independencia judicial, la responsabilidad personal en la decisión, la protección de los derechos fundamentales o la garantía de confidencialidad y seguridad. Además, el CGPJ precisó que los jueces solo podrán utilizar aplicaciones facilitadas por las administraciones competentes en materia de Justicia o directamente por el propio Consejo, y siempre tras los controles oportunos.
El expediente abierto a este magistrado obliga a afrontar una pregunta incómoda, pero inaplazable: ¿hasta dónde puede entrar la inteligencia artificial en un juzgado sin erosionar la esencia misma de la función de juzgar? Porque el peligro no reside únicamente en que una máquina redacte frases más o menos pulidas, sino en la tentación de convertir el razonamiento judicial en un producto asistido externamente, opaco en su proceso de elaboración y potencialmente incompatible con las exigencias constitucionales de independencia, motivación y responsabilidad.
Conviene no engañarse. La cuestión no es si la Justicia debe modernizarse. Claro que debe hacerlo. La cuestión es si esa modernización puede admitir que la sentencia deje de ser, en lo sustancial, obra del juez para pasar a convertirse en el resultado de una interacción con un sistema algorítmico. Y ahí la respuesta debe ser rotunda. Una justicia asistida tecnológicamente puede ser más eficaz; una justicia delegada en la inteligencia artificial deja de ser plenamente justicia para convertirse en otra cosa.
Lo que decida ahora el CGPJ tendrá un valor que va mucho más allá del caso concreto. No resolverá solo sobre la conducta de un magistrado. Fijará, en buena medida, el mensaje institucional que se lanza a toda la Carrera Judicial: si la IA es un apoyo subordinado al criterio humano o si, por la vía de los hechos, puede abrirse paso como sustituto encubierto de la deliberación judicial. Y en ese punto no debería haber equívocos. El juez puede servirse de herramientas. Lo que no puede hacer es dejar que la herramienta empiece a juzgar por él.






