Como probablemente sea del conocimiento de algunos lectores, hace algunas semanas un Juzgado de amparo en materia laboral de Cartagena, Colombia, fue el primer órgano impartidor de justicia en el mundo en dictar una sentencia (relacionada con el derecho fundamental a la salud) usando las respuestas del famoso ChatGPT.
¿Qué es el ChatGPT? El ChatGPT es un modelo de red neuronal con más de 175 millones de parámetros, y entrenado con grandes cantidades de texto para realizar tareas relacionadas con el lenguaje, desde la traducción, hasta la generación de texto, desarrollado por OpenAI, una empresa estadounidense fundada en 2015 por Sam Altman y, por el magnate encargado de colonizar el espacio, Elon Musk.
Como conocimiento general, un chatbot ordinario es cargado con inteligencia artificial a la que se le entrena a base de texto, se le hacen preguntas y se le añade información, de manera que este sistema, a base de correcciones a lo largo del tiempo, va “entrenándose” para realizar de forma automática la tarea para la que ha sido diseñado; en el caso de ChatGPT, la inteligencia artificial con la que fue “cargado” lo ha entrenado para mantener conversaciones con cualquier persona.
En pleno auge de Bots con inteligencia artificial avanzada, ya existen varios en etapas experimentales finales: “Bard” de Google, “Split-up” de la Universidad de Melbourne, “Expertius” de CONACYT/UNAM y “CIES” de la Corte Interamericana de Derechos Humanos, entre otros; sin embargo, el primero en ser usado para dictar una sentencia definitiva, fue ChatGPT por un juzgado de amparo en Cartagena, Colombia.
Para los que no estén muy enterados del tema, la sentencia dictada en un juicio de tutela de Colombia (lo cual es el equivalente a nuestro amparo) le permitió a un niño autista evitar el pago de sus terapias, así como el transporte para llegar a ellas, entre algunos otros gastos en los que incurre la familia del niño en cada sesión.
Hasta ahí, todo bien. Puros aplausos para el enjuiciador innovador y temerario. Entre risas y aplausos, el juez fundamentó su decisión de permitirle al ChatGPT “apoyarlo” en el dictado de la sentencia en una ley que tienen en Colombia de la incorporación de tecnologías de la información en los procesos judiciales.
Sin embargo, nadie le puso atención al hecho de que ChatGPT podía haber estado inventando fundamentos y motivación para dar su resultado y obviamente a nadie le importo, pues el niño y su familia habían salido bien librados y, aparte, quien dictó la sentencia fue el ROBOT DE ELON MUSK; es más, la sentencia hasta obligó a Colombia a proporcionarle un vehículo al peticionante para poder llegar a sus terapias.
Los dos redactores de esta columna ingresaron las mismas preguntas que el juez Colombiano le formuló al ChatGPT el día del dictado de la sentencia del juicio del niño autista y hemos confirmado que ha arrojado respuestas diferentes; por ejemplo, el chatbot contestó aquel día que el niño no debía pagar sus cuotas basándose en lo previsto en la “Ley 1753 de 2015”, sin embargo, a los hoy suscritos nos contestó lo mismo pero fundamentándose en la “Ley 1751 de 2015”.
Algunos dirán: “Rubén, Tesa, son 2 dígitos de diferencia, no exageren, es un robot, obvio tiene derecho a equivocarse…” y, claro, no podemos estar más de acuerdo, son únicamente dos dígitos: el 2 y el 3. Sin embargo (por nombrar cualquier ejemplo), si la Ley 1753 hablara de aviación civil, la Ley 1752 hablara de la producción de jitomate y solo la Ley 1751 hablara de los servicios de salud pública, ¿No estaría aquel juez de amparo de Cartagena cometiendo un grave error al permitirle a aquella familia no pagar las terapias del niño autista? ¿Alguien se puso ese día a checar con lupa los fundamentos que el ChatGPT arrojaba? ¿Qué hubiera pasado si el resultado hubiera sido desfavorable a los intereses del niño?
Como algunos sabrán, el Código Penal Para el Distrito Federal en su artículo 290 prevé que se impondrán de dos a ocho años de prisión al servidor público que dicte una sentencia definitiva o cualquier otra resolución de fondo que viole algún precepto terminante de la ley, o que sea contraria a las actuaciones legalmente practicadas en el proceso, entre otros supuestos; es decir, quien incurra en la denegación de justicia y/o prevaricación.
¿Qué es el delito de prevaricación? Según el diccionario de la Real Academia Española, la acción de prevaricar consiste en dictar una resolución arbitraria a sabiendas de su injusticia. Se trata de un delito especial, ya que el sujeto activo solo puede ser una autoridad, un funcionario o un juez.
Derivado de lo anterior, deberemos prever en este 2023 tan “tech” que si un impartidor de justicia mexicano decide innovar en el dictado de su sentencia y usa el ChatGPT para emitir un fallo y el Bot en cuestión se pone a inventar jurisprudencias, tesis aisladas y artículos de diversos códigos que “suenan” adecuados para el caso en cuestión y el servidor público toma eso de fundamento para resolver la litis, este último pudiese llegar a ser condenado por el delito de prevaricación, cuando menos, en esta H. Ciudad de México.
Es evidente que la regulación del uso del ChatGPT es más que necesaria, tanto, que el propio cofundador de esta herramienta, Sam Altman, manifestó hace un par de años que a falta de legislación precisa respecto de esta tecnología, el joven prodigio había construido un bunker en su casa con armas, baterías, antibióticos, máscaras de gas y sin conexión a internet “para cuando la inteligencia artificial ataque a los humanos”.
¿A qué le teme tanto el cofundador de ChatGPT? ¿De verdad, será sensato usar esta herramienta para el dictado definitivo de sentencias en pro de los gobernados? ¿Llegaremos al punto en el que si un impartidor de justicia erra al dictado del fallo “por culpa” de inteligencia artificial, ¿Se podrá culpar a esta última y, no así, al servidor público? ¿México y su sistema judicial estarán listos para estas decisiones?
Rubén Moya Bocanegra
Maestro en derecho fiscal y administrativo de la Facultad de Derecho de la Barra Nacional de Abogados y socio de las áreas fiscal y administrativa de Sabag, Becker & Gerrit Cohen.
Twitter: @rubenmoya41
LinkedIn: Rubén Moya Bocanegra
Instagram: @moyaruben @sabagbecker
Tesa de la Torre Arias
Estudiante de derecho en la Universidad Panamericana, campus Ciudad de México y abogada de las áreas penal, corporativo y aeronáutico de Sabag, Becker & Gerrit Cohen.
LinkedIn: Teresa de la Torre Arias
Instagram: @sabagbecker
Siempre la tecnología deberá de apoyarse del capital humano para su correcta función, de su dirección a dónde queramos llegar, no olvidemos que también puede ser vulnerada por cibernautas que dedican su vida a introducirse al sistema para manipularlo desde cualquier parte el mundo.
¿La policía cibernética estará preparada para afrontar este tipo de hechos ?
¿Habrá un respaldo del seguimiento de estos “bots” ?
Saludos colegas y excelente día.
Muy buen artículo.