El trabajo de la abogacía requiere a gente que sea honesta, íntegra y de gran autoridad moral. Desafortunadamente, todas esas facultades y virtudes brillaron por su ausencia en un reciente juicio, donde el abogado le falló a su cliente soltando una sarta de mentiras y lo peor de todo era que el legista ni cuenta se dio de que estaba cavando su propia tumba porque el ChatGPT fue quien hizo su trabajo y lo hizo muy mal.
Representando a Roberto Mata, quien demandó a la aerolínea Avianca por lesiones que sufrió allá por 2019, el abogado Steven Schwartz de la firma Levidow & Oberman presentó una serie de casos similares a los de su cliente que “representaban antecedentes” para fundamentar su demanda. ¿El problema? Al menos seis de estos eran inventados. Ahora el incompetente jurista ha pedido disculpas y tendrá que defenderse frente a una audiencia de sanciones el 8 de junio de 2023.
Se tomó muy en serio que ChatGPT podría ser abogado
Estamos frente a una situación legal sin precedentes, pues el abogado presenta lo que parecen ser parecen ser decisiones judiciales falsas con citas inventadas y citas internas que nunca existieron.
– Juez Kevin Castel
El caso era simple: Roberto Mata se lesionó, presuntamente por negligencia de un trabajador de Avianca, cuyo descuido provocó que un carrito de servicio lo golpeara. La firma legal neoyorquina Levidow & Oberman, con más 30 años de experiencia, asignó a Schwartz al caso y el equipo legal a su cargo presentó precedentes legales con nombres convincentes como Varghese contra Aerolíneas China South, Martínez contra Aerolíneas Delta, Petersen contra Iran Air, etc. ¿El problema? Ninguno existía.
Probablemente tentado por el hecho de que investigadores han reportado que el ChatGPT pudo aprobar un examen de Leyes (aunque mediocremente) y quizá ignoraba que había pruebas de que era un “robot deshonesto”, Schwartz decidió que podía aprovechar su tiempo en cosas mejores que hacer su trabajo y le dejó la chamba a su becario virtual, que le proporcionó una lista (mayormente falsa) de casos que apoyaban la postura de su cliente.
El abogado está muy arrepentido… pero de que lo atraparan
Estoy sumamente arrepentido de haber utilizado la Inteligencia Artificial generadora de textos para suplementar la investigación legal realizada durante el caso y nunca volveré a hacerlo en el futuro sin una completa verificación de la autenticidad de la información que provea.
-Steven Schwartz
Diciendo que no tenía ninguna razón para dudar de la sinceridad de la investigación de Schwartz, su colega Peter Loduca, que también trabajaba en el caso, se deslindó de toda responsabilidad respecto a la información falsa proveída por el abogado caído de la gracia de la Corte. Además, parece que Schwartz no dudó jamás de “la sinceridad” de su computadora, que siempre había sido muy honesta con él antes, y, por lo tanto, no merecía la pena el verificar que existieran los casos que le proporcionó el chatbot, porque qué flojera.
La Inteligencia Artificial que todo lo sabe y lo que no, se inventa
El ChatGPT es un chatbot que utiliza Inteligencia Artificial para generar textos y su uso está siendo vedado en ámbitos académicos y profesionales no solo porque es la salida fácil para hacer trabajos escritos, sino porque es inepto y mentiroso. Básicamente, cuando ChatGPT no tiene acceso a información o datos particulares, se inventa fuentes y eso es justamente lo que ocurrió durante el juicio de Roberto Mata contra Avianca.
El chatbot aseguró que todos los casos son reales y que pueden ser encontrados en bases de datos legales muy confiables como Westlaw y LexisNexis, aunque no existan. Lo único que le resta al flojo abogado es esperar a su audiencia, a ver si le dan vacaciones permanentes el próximo 8 de junio de 2023, para que no le anden encargando engorrosas investigaciones que no merecen su tiempo.