Un tribunal de Río Negro detectó 26 fallos inexistentes, presumiblemente redactados con inteligencia artificial. Antes de resolver una apelación en una causa civil, les pidió explicaciones a dos abogados. Uno adujo un «error de pluma» y el otro, un problema al consultar la revista doctrinaria. La Cámara Civil de Roca no solo remitió el caso al tribunal de ética del Colegio de Abogados, sino que también anuló su intervención en la instancia y resolvió no pagarles honorarios.
Las citas cuestionadas aparecieron en los escritos presentados por los abogados del cliente y de una de las demandadas, DMX2 S.A., concesionaria oficial de la marca Peugeot. En total, se detectaron 26 fallos inexistentes: 20 en el escrito del cliente y 6 en el de la codemandada.
La Cámara advirtió que, tras una búsqueda exhaustiva en la Biblioteca del Poder Judicial y en los registros del Superior Tribunal de Justicia, ninguna de las citas pudo ser verificada. Por eso solicitó a los letrados que indicaran las fuentes de las citas textuales atribuidas a tribunales rionegrinos.
La respuesta de los abogados no aportó claridad. El representante del cliente admitió que se trataba de un “error material de pluma o de redacción” y aclaró que esas citas no formaban parte sustancial de sus argumentos. El abogado de la concesionaria sostuvo que “no se pudo acceder a la revista doctrinaria utilizada” para verificar si los precedentes existían y pidió que se tuvieran por retiradas.
“ALUCINACIONES”
La Cámara consideró que ambos letrados, aunque no lo reconocieron expresamente, probablemente recurrieron al uso de herramientas de inteligencia artificial generativa. Y si no fue así —señaló el fallo—, y las citas fueron directamente inventadas por los abogados, “la conducta resultaría mucho más grave aún”, ya que equivaldría a intentar inducir a error al tribunal con precedentes fabricados.
“El uso de chatbots de inteligencia artificial generativa constituye una herramienta más que puede coadyuvar en el trabajo diario”, expresaron los jueces. Pero advirtieron que los resultados “deben ser indefectiblemente cotejados”, ya que muchas veces “incluyen las denominadas ‘alucinaciones’ y por ello aparecen fuentes lisa y llanamente inexistentes e inventadas”.
Aunque no se impusieron sanciones disciplinarias formales, la Cámara hizo un “severo llamado de atención” a ambos profesionales. Subrayó que el uso de nuevas tecnologías en la práctica legal debe estar sujeto a control humano, verificación responsable y respeto por las normas éticas que rigen el ejercicio de la abogacía. También se resolvió remitir copia de la resolución al Colegio de Abogados de Roca para que la situación sea puesta en conocimiento de los colegiados y se promuevan acciones preventivas.
EL RECLAMO DE UN AFICIONADO A LOS AUTOS DEPORTIVOS
La causa en la que ocurrió este incidente tuvo origen cuando un hombre de Roca demandó a Peugeot Citroën Argentina S.A. y a su concesionaria oficial DMX2 S.A. tras comprar un vehículo 0 km de alta gama que, desde los primeros kilómetros, presentó múltiples fallas mecánicas y electrónicas. Pese a numerosos ingresos al servicio técnico, los desperfectos persistieron. El cliente acudió al Poder Judicial para pedir la devolución del valor del vehículo, más daños y perjuicios.
En primera instancia, el tribunal le dio la razón: declaró la responsabilidad solidaria de las dos empresas, ordenó el reintegro del valor actualizado del automóvil, fijó una indemnización por daño moral y aplicó un daño punitivo por el trato indigno. Fue en la etapa de apelación cuando surgió el problema con las citas jurídicas falsas.
Finalmente, al analizar los recursos, la Cámara confirmó casi todos los puntos de la sentencia, con una única modificación en la cuantía del daño moral. Pero la cuestión que quedó instalada fue otra: la responsabilidad profesional en la era de la inteligencia artificial.
El Poder Judicial de Río Negro cuenta con una acordada que regula el uso de inteligencia artificial, un protocolo específico sobre su aplicación y capacita permanentemente al personal del Poder Judicial en distintas circunscripciones.
Sin embargo, ese protocolo rige únicamente en el ámbito interno del Poder Judicial y no alcanza a los profesionales particulares que ejercen la abogacía de forma privada, quienes no tienen lineamientos específicos sobre cómo incorporar o controlar el uso de herramientas de inteligencia artificial generativa en sus escritos judiciales.