El abogado Steven Schwartz cometió un error que seguramente lo tendrá con los ojos abiertos por mucho tiempo: en un juicio en contra de Avianca se le ocurrió presentar al juez un folio citando casos relacionados al presente, pero no se dio cuenta de que estos no existían.
Schwartz abogaba en defensa de un pasajero que demandó a la aerolínea por lesiones personales. En el desarrollo de la investigación que presentó para defenderlo, se le ocurrió utilizar inteligencia artificial para solidificar su caso. Le preguntó a ChatGPT por casos que sirvieran de referentes para su caso, a lo que la aplicación le arrojó seis diferentes ‘ocurridas’ entre 1999 y 2019.
En el juicio, el juez identificó que estos casos citados no existían, por lo que le indicó a Schwartz que la información presentada era falsa. Este admitió haber utilizado inteligencia artificial y afirmó desconocer que la aplicación podía entregar información falsa y datos inexactos.
El abogado explicó que durante el proceso con ChatGPT, le preguntó a la aplicación si dichos casos eran reales, a lo que la inteligencia respondió que sí. Además, en el juicio, expresó su arrepentimiento por haber utilizado información falsa y datos inexactos en una investigación legal.
Ahora, Schwartz tendrá que comparecer en una audiencia el próximo 8 de junio para aclarar por qué no debería ser sancionado por haber utilizado datos falsos en un proceso legal. Y es que el uso de esta herramienta no se recomienda para estudios y casos de investigación, pues, por defecto, no es un buscador de información.