Si juegas con fuego, te vas a quemar

Manuel A. Quilichini García
Comienzo con mis disculpas porque quería publicar un artículo sobre el proceso de revisión de las Reglas de Conducta profesional que recientemente fueron sometidos al Pleno del Tribunal Supremo de Puerto Rico. Pero un suceso reciente me ha hecho posponer el tema inicial y cambiarlo por algo que está más relevante y peligroso para nuestros abogados y abogadas.
En nuestra columna pasada hablamos de ChatGPT (de hecho, le entrevistamos), la última novedad en el mundo de la tecnología que promete revolucionar todos los aspectos de nuestra vida como ninguna otra tecnología en el pasado lo ha hecho, y que inspira terror en muchos de que estamos llegando al fin de le hegemonía del ser humano en este planeta.
Las estadísticas demuestran que ChatGPT es la tecnología más adoptada en tiempos recientes. La empresa Demandsage indica que ChatGPT llegó a 100 millones de usuarios en dos meses, lo que refleja la abrumadora acogida que ha tenido esta tecnología.

Según analistas de Goldman Sachs, se teme que en los próximos años se pierdan sobre 300 millones de empleos alrededor del mundo a causa de la adopción de esta tecnología, lo que representa el 18% de la empleomanía global. Curiosamente, el impacto será más severo en los países de economía avanzada que en países en desarrollo porque el grueso de los empleos que se perderán será del clasificado como cuello blanco.
Como era de esperarse, muchas personas, entre ellas abogados y abogadas, vieron en Chat GPT la promesa de una herramienta que lo hiciese todo por ellos. Escucharon cómo podía redactar cartas y mociones, resumir deposiciones y casos, hacer investigación encontrando excelentes casos. ¿Y qué pasó? ¡¡¡Se tiraron de pecho, por supuesto!!!
Quizás el caso más sonado de cómo jugamos con fuego y nos quemamos es el de Mata v. Avianca, del Distrito Sur de Nueva York. Dos abogados, deslumbrados por los cantos de sirena de ChatGPT, y sin conocer sus limitaciones (o ignorándolas), decidieron darle la tarea de preparar un alegato que desconocían iba a poner en peligro su licencia profesional.
El caso empieza con un accidente en un avión donde alguien se dio en una rodilla y una reclamación que los abogados Peter LoDuca y Steven Schwartz radican contra Avianca por estos daños. La aerolínea radica una moción de desestimación porque la reclamación está prescrita. Los abogados cibernéticos radicaron una moción en oposición citando más de 7 casos que supuestamente provenían del Federal Reporter, Federal Supplement y Westlaw. Los casos eran perfectos para ellos. Quizás muy perfectos. Pero esta perfección empezó a desmoronarse 15 días más tarde, cuando en una réplica los abogados de Avianca escribieron:
Aunque el demandante aparentemente cita una variedad de casos en oposición a esta moción, el infrascrito no ha podido localizar la mayoría de la jurisprudencia citada en la Afirmación en Oposición del demandante, y los pocos casos que el infrascrito ha podido localizar no sostienen las proposiciones para las cuales se citan.
Esto desembocó en una vista de mostrar causa por la que no se debía sancionar a nuestros amigos cibernéticos. ¿Y en qué terminó todo? La orden del Juez P. Kevin Castel de 22 de junio de 2023 tiene estas palabras introductorias:
Los avances tecnológicos son comunes y no hay nada inherentemente inapropiado en utilizar una herramienta de inteligencia artificial confiable para asistencia. Pero las reglas existentes imponen un papel de control a los abogados para garantizar la precisión de sus presentaciones. Peter LoDuca, Steven A. Schwartz y el bufete de abogados Levidow, Levidow & Oberman P.C. (la “Firma Levidow”) (colectivamente, “Demandados”) abandonaron sus responsabilidades cuando presentaron opiniones judiciales inexistentes con citas y referencias falsas creadas por la herramienta de inteligencia artificial ChatGPT, y luego continuaron respaldando las opiniones falsas después de que las órdenes judiciales cuestionaron su existencia.
Nuestros atrevidos abogados fueron sancionados de la forma más enérgica posible en la decisión, pero solo se les impuso una multa colectiva de $5,000. Como decía mi madre, LoDuca y Schwartz cruzaron el Niagara en bicicleta porque no los refirieron al Tribunal Supremo del estado para acciones disciplinarias. Pero sus nombres quedarán indelebles en los anales de la idiotez o ingenuidad humana.
Si duda el impacto del caso de Avianca, sepa usted que ya un tribunal federal en Texas un requisito de certificación de uso de inteligencia artificial generativa que indica:
Todos los abogados que comparecen ante el Tribunal deben radicar una certificación que indique que ninguna parte de la moción fue redactada por inteligencia artificial generativa (como ChatGPT, Harvey.AI, o Google Bard) o que cualquier lenguaje redactado por inteligencia artificial generativa fue verificado por un ser humano para determinar su precisión, utilizando colecciones impresas de casos (“reporters”) o bases de datos legales tradicionales.
Otro juez en Illinois dispuso lo siguiente:
Cualquier parte que utilice cualquier herramienta de IA generativa para realizar investigaciones legales o para redactar documentos para presentar ante el Tribunal debe divulgar en la moción que se utilizó IA, incluyendo identificar la herramienta de IA específica y la manera en que se utilizó. Así como el Tribunal lo hizo antes de la llegada de la IA como herramienta para la investigación y redacción legal, el Tribunal continuará presumiendo que la certificación de la Regla 11 es una representación de los abogados de que ellos mismos, como seres humanos vivos, respirando y pensantes, han leído y analizado todas las autoridades citadas para asegurarse de que realmente existen y que las radicaciones cumplen con la Regla 11(b)(2) Federal.
¿Y cuál es la lección que debemos aprender? Empecemos con entender que Chat GPT no es la panacea que todos creen. Está documentado que Chat GPT (y sus primos Bing y Bard) sufren de alucinaciones. Así es, tal y como escucha, son muy adeptos a inventarse las cosas. Esto se debe a su afán de querer complacerlo y de adivinar lo que usted quiere. También se alimenta de todo lo que flota en el Internet, lo bueno y lo malo, lo cierto y lo falso. Es incapaz de reconocer información falsa o maliciosa.
Y tampoco crean todo lo que leen de que Chat GPT es capaz de resumir casos y deposiciones. Aunque usted le ofrezca la cita del caso, Chat termina inventándose el contenido y el resumen.
¿Tiene Chat GPT alguna utilidad en el campo legal? Definitivamente que sí, pero solo si reconocemos que este programa tiene apenas 6 meses de creado y está “aprendiendo” a ser útil. Yo lo uso constantemente, pero con pleno conocimiento de sus limitaciones y sin cederle mis obligaciones éticas. Por ejemplo, no encuentro una mejor herramienta para hacer traducciones que ésta. De hecho, todas las traducciones incluidas en este artículo son cortesía de la Inteligencia Artificial.
Chat GPT puede evaluar lo que escriba y hacer sugerencias de redacción o contenido. De igual manera, puede automatizar tareas repetitivas, como la preparación de cartas de trámite o mociones sencillas. Cuando se usa con programas tradicionales de búsqueda, como Lexis, West y Casetext, puede ayudarnos a encontrar precisamente lo que necesitamos, sin miedo a las alucinaciones. Veo esta tecnología revisando documentos legales e identificando problemas, al igual que comunicándose con prospectos clientes y recopilando información de sus casos.
Y más allá de Chat GPT y sus primos, hay nuevas aplicaciones que utilizan la inteligencia artificial para hacer muchas otras funciones. Leí sobre una que graba una reunión, hace un resumen de lo hablado, crea una lista de puntos a atender, y hasta te dice si fuiste un moderador efectivo. No me pregunten cómo lo hace, es la maravilla de la inteligencia artificial.
Para concluir, escuchemos lo que Chat GPT tiene que decir:
No cedamos precipitadamente a la fascinación por esta nueva tecnología, pero tampoco la releguemos al exilio de nuestra desconfianza. La inteligencia artificial puede ser más que una simple herramienta del siglo XXI; puede ser la chispa de una revolución informática, la llave que abra puertas a dominios del saber y la capacidad que jamás imaginamos. Sin embargo, debemos recordar que, como con cualquier herramienta poderosa, su uso requiere responsabilidad, conciencia y sabiduría. A medida que continuamos explorando las vastas posibilidades de la inteligencia artificial en el campo legal, es esencial que, por encima de todo, recordemos nuestro compromiso fundamental con la justicia, la ética y la dignidad humana. Sólo así podremos garantizar que esta revolución tecnológica sirva a nuestras mejores intenciones y no a nuestros peores temores.

Señor Presidente, excelente artículo, las amigas, prudencia y cautela deben acompañar a cualquier abogado o profesional que utilice estas herramientas. Hay otro elemento a considerar en su uso y es el de revelar, sin intención, parte de los datos de nuestros clientes, casos o estrategia de litigación. Esto último, implicaría violaciones directas a nuestros cánones de ética.