El error cometido en la Corte Suprema del estado de Victoria se suma a una larga lista de contratiempos que la IA ha causado en los sistemas judiciales de todo el mundo.
Un abogado australiano de alto rango se disculpó con un juez por presentar alegatos en un caso de asesinato que incluían citas falsas y sentencias inexistentes generadas por inteligencia artificial.
El error cometido en la Corte Suprema del estado de Victoria se suma a una larga lista de contratiempos que la IA ha causado en los sistemas judiciales de todo el mundo.
El abogado defensor Rishi Nathwani, quien ostenta el prestigioso título legal de Consejero del Rey, asumió la plena responsabilidad por presentar información incorrecta en los alegatos en el caso de un adolescente acusado de asesinato, según documentos judiciales.
“Lamentamos profundamente y nos sentimos avergonzados por lo ocurrido”, declaró Nathwani al juez James Elliott, en nombre de la defensa.
Los errores generados por la IA provocaron un retraso de 24 horas en la resolución de un caso que Elliott esperaba concluir el miércoles. Elliott dictaminó el jueves que el cliente de Nathwani, quien no puede ser identificado por ser menor de edad, no era culpable de asesinato debido a su discapacidad mental.
“A riesgo de quedarme corto, la manera en que se desarrollaron estos hechos es insatisfactoria”, declaró Elliott a los abogados.
“La capacidad del tribunal para confiar en la exactitud de los alegatos presentados por los abogados es fundamental para la debida administración de justicia”, añadió Elliott.
Los alegatos falsos incluían citas inventadas de un discurso ante la legislatura estatal y citas de casos inexistentes, supuestamente de la Corte Suprema.
Los errores fueron descubiertos por los asociados de Elliott, quienes no pudieron encontrar los casos y solicitaron copias a los abogados defensores.
Los abogados admitieron que las citas no existen y que el alegato contenía citas ficticias, según documentos judiciales. Explicaron que comprobaron que las citas iniciales fueran exactas y asumieron erróneamente que las demás también lo serían. Los alegatos también fueron enviados al fiscal Daniel Porceddu, quien no verificó su exactitud.
El juez señaló que la Corte Suprema publicó el año pasado directrices sobre cómo los abogados utilizan la IA. “No es aceptable que se utilice inteligencia artificial a menos que el resultado de dicho uso se verifique de forma independiente y exhaustiva”, declaró Elliott.
Los documentos judiciales no identifican el sistema de inteligencia artificial generativa utilizado por los abogados.
En un caso comparable en Estados Unidos en 2023, un juez federal impuso multas de 5000 dólares a dos abogados y un bufete de abogados después de que ChatGPT fuera acusado de presentar una investigación jurídica ficticia en una demanda por lesiones de aviación.









