Inteligencia Artificial y Abogacía: El primer caso judicial argentino de uso indebido y su proyección en el ámbito extrajudicial.

Elaborado por Jorge Paternó y Daniela A. Keller

a. Introducción

La irrupción de la inteligencia artificial (en adelante la “IA”) generativa en la práctica jurídica, plantea grandes desafíos para la ética profesional, la responsabilidad del abogado y la seguridad jurídica.

El reciente caso “G.C.A. y otros c/ M.F.D. y otros s/ Daños y Perjuicios” de la Cámara de Apelación en lo Civil y Comercial de Rosario, (en adelante el “Caso Rosario”), constituye un hito en Argentina: por primera vez, un tribunal detectó la utilización de citas jurisprudenciales inexistentes generadas por una herramienta de IA, advirtió sobre la gravedad del hecho y remitió los antecedentes al Colegio de Abogados para su eventual tratamiento disciplinario.

Los antecedentes antes descriptos ponen en manifiesto que el uso de la IA implica un debate más amplio que excede el proceso judicial: ¿cómo deben los abogados integrar la IA a sus tareas profesionales no sólo en el ámbito judicial, sino también en el extrajudicial sin desatender las obligaciones éticas, la debida diligencia y la confianza depositada por clientes y terceros? [1]. A modo de ejemplo, nos podemos referir no solo en ocasión de litigios, sino también en la elaboración de dictámenes, contratos, procedimientos internos, así como cualquier otro documento en materia de compliance y/o asesoramiento corporativo.

b. El Caso Rosario: un hito jurisprudencial

En el caso citado, el tribunal observó que el letrado había incorporado jurisprudencia inexistente en un escrito procesal, generada por una IA. Si bien se determinó que no había existido mala fe, se calificó la conducta como “riesgosa y hasta temeraria”, y se encuadró como una potencial infracción ética, remitiendo las actuaciones al Colegio profesional.

La importancia del caso reside en que se convierte en el primer antecedente argentino en el cual un tribunal se pronuncia explícitamente sobre los riesgos del uso acrítico de IA en la abogacía. El mensaje principal es claro: la herramienta tecnológica no sustituye el juicio crítico del profesional ni lo exime de su deber de verificación [1].

c. El marco orientador: la guía del CPACF sobre IA

El Colegio Público de Abogados de la Capital Federal (en adelante “CPACF”) publicó recientemente una serie de buenas prácticas y/o criterios orientadores para un uso ético y responsable de la inteligencia artificial en la abogacía.

Entre sus lineamientos, podemos destacan: (i) la IA es un medio auxiliar o un instrumento, nunca un sustituto de las funciones que tiene a cargo el abogado; (ii) el profesional interviniente es el único responsable del contenido y consecuencias de los documentos en que interviene; (iii) siempre es obligatorio verificar las fuentes que se utilicen en el ejercicio de la profesión; (iv) y un tema no menor, debe garantizarse la confidencialidad de los datos al introducir información en plataformas externas [2]. Este último punto, ameritaría la elaboración de un artículo independiente, que quedará para otra ocasión.

Como lo señala el propio documento, “la supervisión humana, provista de pensamiento crítico para analizar, corregir o modificar el contenido generado por la IAGen, constituye una actividad ineludible en el trabajo colaborativo con esta nueva herramienta”.

d. Responsabilidad profesional y sanciones

En el ámbito judicial el uso de información falsa, aunque no sea intencional, vulnera los deberes de veracidad y probidad, puede acarrear rechazo de escritos, imposición de costas, pérdida de credibilidad, sanciones disciplinarias como suspensión de matrícula, y responsabilidad civil frente a clientes.

Por otra parte, en el ámbito extrajudicial, un dictamen con citas ficticias puede inducir a decisiones económicas erróneas, contratos generados automáticamente pueden derivar en nulidades. En materia de compliance, la inclusión de normativa inexistente o desactualizada, expone a sanciones regulatorias.

Finalmente, y no menor, el uso indebido de datos en IA puede violar normas de secreto profesional, bancario y bursátil entre otros [3]. En el marco de la actuación extrajudicial, y según sea el rol del abogado, como empleado y/o independiente o asesor, pueden implicar sanciones de índole personal (administrativa y/o judicial), así como también para su empleador (penalidades pecuniarias).

e. El consentimiento informado y sus límites

Como regla general la prestación del consentimiento informado del cliente para que el abogado utilice IA, no bastaría para eximirlo de responsabilidad. En ese sentido, la responsabilidad ante tribunales y terceros es indelegable, el cliente no puede autorizar infracciones éticas, la buena fe no exculpa negligencia, y el consentimiento informado sólo transparenta metodologías, pero no desplaza la responsabilidad del abogado [4].

5. Reflexiones comparadas

Experiencias similares han ocurrido en Estados Unidos y Europa, donde jueces han sancionado a abogados que presentaron escritos con citas falsas provenientes de ChatGPT u otros modelos. La tendencia es convergente: los abogados siguen siendo garantes de la calidad, veracidad y responsabilidad de los documentos jurídicos en los que intervienen [5].

Conclusiones

El caso de Rosario inaugura en Argentina una etapa crítica de reflexión sobre el uso de IA en la abogacía.

La enseñanza principal es doble: (i) en el ámbito judicial, el abogado no puede delegar su deber de diligencia y veracidad en herramientas tecnológicas; 2) en el ámbito extrajudicial, los riesgos se multiplican en dictámenes, contratos, auditorías y asesoramiento. La guía del CPACF es clave, pero requiere capacitación continua y protocolos internos. Si bien la inteligencia artificial puede agilizar tareas en el ejercicio profesional y brindar una asistencia valiosa, nunca debe reemplazar el juicio crítico ni la supervisión humana, que resultan indispensables para garantizar la exactitud y la integridad de los documentos.

La conclusión es clara: la IA es un instrumento útil, pero la responsabilidad profesional del abogado es indelegable e irrenunciable. Es necesario mantener un equilibrio entre la innovación tecnológica y la supervisión humana [6].

Notas

[1] Diario Judicial, ‘Las citas falsas con ChatGPT llegaron a Argentina’, 2025.

[2] Colegio Público de Abogados de la Capital Federal (CPACF), ‘Criterios orientadores para un uso ético y responsable de la Inteligencia Artificial en la Abogacía’, 2025.

[3] Código de Ética del Abogado de la Ciudad Autónoma de Buenos Aires.

[4] Tristán y Asociados, ‘Inteligencia Artificial y las citas falsas’, 2025.

[5] Mata v. Avianca, U.S. District Court, S.D.N.Y., 2023.

[6] Doctrina comparada en ética profesional y tecnología jurídica, 2024.