Abogacía, sistemas de IA generativa y alucinaciones
Desde mediados del año 2023, fueron conocidos diversos casos en los cuales abogados habían utilizado sistemas de IA generativa para redactar presentaciones en procesos judiciales y, como resultado, obtuvieron citas de precedentes inexistentes.Fueron conocidos, desde mediados del año 2023, diversos casos en los cuales abogados habían utilizado sistemas de IA generativa para redactar presentaciones en procesos judiciales y, como resultado, obtuvieron citas de precedentes inexistentes.
En aquellos casos, los jueces fueron advirtiendo estas situaciones, asumiendo distintas posturas: desde la mera advertencia, hasta la imposición de sanciones pecuniarias.
El primer precedente que se difundió -incluso en medios no especializados- fue “Mata v. Avianca” sentenciado por el juez de Distrito Sur de Nueva York en el mes de Junio de 2022 donde los letrados terminaron siendo sancionados y, a partir de allí, fueron varios los casos que se fueron presentando, con similares características.
Ya abriendo 2024, lo mismo volvió a suceder en las cortes de Massachusetts: se trata del caso “Smith v. Farewell” donde -al igual que en los precedentes mencionados- el juez advirtió la cita de precedentes inexistentes y el abogado esgrimió, como excusa, que le habían sido proporcionados por un sistema de inteligencia artificial.
El juez analizó profundamente el tema de las alucinaciones que afectan a estos sistemas y cómo repercuten en el ejercicio profesional, contextualizando las obligaciones derivadas de las normas que regulan el ejercicio de la abogacía y la actuación ante los tribunales, con la situación que se da cuando se evocan precedentes inexistentes, proporcionados por sistemas de IA generativas.
Estos casos, reiterados ya, son una muestra más de la importancia de la formación profesional en cuestiones tecnológicas para el ejercicio de la abogacía en los tiempos actuales.