Juez federal de los Estados Unidos multa a abogados que presentaron precedentes falsos generados por ChatGPT
En un tribunal federal de los Estados Unidos se desarrolló un interesante caso que terminó en la sanción a dos abogados que, “auxiliados” por el programa de Inteligencia Artificial, IA, ChatGPT, presentaron información falsa adjudicada a la autoría de varios jueces, en un proceso contra la línea aérea Avianca por lesiones.
Los antecedentes de este caso los encontramos en la demanda que presentó Roberto Mata en contra de Avianca por una lesión sufrida en agosto de 2019 en un vuelo de El Salvador as Nueva York. El abogado que representó a Mata fue Steven A. Schwartz, quien al no estar facultado para presentarse ante el tribunal federal de Manhattan, pidió a su colega Peter LoDuca que firmara el documento que presentó en respuesta a la moción de los abogados de Avianca de desechar la demanda por caducidad de la acción. Los abogados sancionados pertenecen a la firma Levidow, Levidow & Oberman.
En ese documento, el abogado Schwartz presentó seis decisiones adjudicadas a jueces en cortes de apelaciones, en las que la caducidad de la acción era inaplicable. Cuando los abogados de Avianca dijeron al juez de la Corte Federal de Distrito en Manhattan, P. Kevin Castel, que no encontraban esos antecedentes, el abogado LoDuca pidió una prórroga para responder, señalando que estaba de vacaciones, lo que era falso.
El problema es que en lugar de decir la verdad y aceptar que esos precedentes citados eran un invento de ChatGPT, trataron de ganar tiempo, hasta que fue imposible. Por esta razón, el juez Castel concluyó que actuaron de mala fe.
En la decisión del juez Castel del 22 de junio, se lee que la actuación de los abogados es un daño al sistema legal de los Estados Unidos: “Muchos daños se derivan de la presentación de opiniones falsas”, escribió el juez. “La parte contraria pierde tiempo y dinero en exponer el engaño. El tiempo de la corte se toma de otros esfuerzos importantes”.
Agregó que esta acción de los abogados, “promueve el cinismo sobre la profesión legal y el sistema judicial estadounidense. Y un futuro litigante puede verse tentado a desafiar un fallo judicial alegando falsamente dudas sobre su autenticidad”.
Por tal motivo, sentenció a los abogados a pagar cada uno una multa de 5,000 dólares y dijo que nos los sentenciaba a disculparse con los jueces mencionados como autores de los precedentes falsos, porque “una disculpa forzada no es una disculpa sincera”, y dejó a los abogados que voluntariamente presentaran sus disculpas.
Analizando una de estas presuntas decisiones, creadas por el programa de inteligencia artificial, el juez Castel, escribió que “su análisis legal es un galimatías” y agregó que “El resumen de la historia procesal del caso es difícil de seguir y roza lo absurdo”.
El abogado Schwartz declaró que el error lo había cometido de buena fe, creyendo que ChatGPT era un superprograma capaz de encontrar cualquier precedente generado a nivel federal. Esta confusión llevó a la firma de abogados a capacitar a su personal sobre competencia tecnológica y programas de inteligencia artificial.
La firma negó que hubiera habido mala fe, declarando que: “Frente a lo que incluso el tribunal reconoció que era una situación sin precedentes, cometimos un error de buena fe al no creer que una tecnología podría estar inventando casos de la nada”.
Además de la sanción, el caso de Roberto Mata fue desechado por caducidad de la acción.
Sobre este peculiar caso, Stephen Gillers, profesor de ética legal en la Facultad de Derecho de la Universidad de Nueva York, entrevistado por The New York Times declaró que estos abogados “ahora y para siempre serán conocidos como 'los abogados que fueron engañados por ChatGPT', lo que, según Castel, también es una sanción", y añadió que “Este caso es el primero, pero probablemente no el último, una advertencia a la barra de abogados para que no se deje seducir por el canto de sirena de la IA generativa”.
Con toda la información que se ha generado sobre los programas de inteligencia artificial, incluidas las alertas de varios sus creadores, se antoja difícil de creer que estos abogados desconocieran que muchas veces generan información falsa.
Más información nytimes.com
miabogadoenlinea.net
Se permite la reproducción total o parcial, citando y vinculando a miabogadoenlinea.net