
Reparto de honorarios: La ética de los honorarios de los abogados de referencia
12 de agosto de 2025
Autor: David Lipman, Esq., Director Jurídico | Consejero General, Kanner & Pintaluga
La inteligencia artificial (IA) está reconfigurando el panorama jurídico más rápidamente que cualquier otra tecnología anterior. Desde la redacción de contratos hasta la evaluación de reclamaciones, las herramientas de IA están cambiando la forma en que abogados y clientes abordan la preparación de casos, la investigación y la comunicación. Pero junto con su potencial de velocidad y eficiencia viene una nueva ola de riesgos, especialmente cuando la IA se utiliza sin las barreras adecuadas.
Informes recientes muestran que los clientes y los bufetes de abogados están recurriendo a la IA jurídica de diferentes maneras. Algunos clientes, deseosos de avanzar más rápido o ahorrar dinero, utilizan plataformas públicas de IA para redactar contratos, resúmenes de demandas o incluso cartas de reclamación antes de ponerse en contacto con un abogado. Otros asumen que cuando sus abogados utilizan IA, el resultado es automáticamente más rápido y barato. En realidad, ambas suposiciones pueden ser problemáticas y crear riesgos de asesoramiento jurídico con IA que pongan en peligro los resultados.
Lo que la IA jurídica puede y no puede hacer de forma fiable
¿Son válidos los documentos jurídicos generados por IA? Depende del documento, de la jurisdicción y de si el contenido refleja con exactitud la legislación vigente y sus hechos. Un sello notarial en una plantilla defectuosa no arreglará los defectos legales. Pida siempre a un abogado que revise los documentos importantes antes de firmarlos o archivarlos.
Bien utilizada, la IA puede ser un poderoso asistente. Sin embargo, puede pasar por alto los matices jurídicos de escenarios especiales. Las aplicaciones más seguras y fiables suelen ser organizativas y administrativas, no estratégicas ni determinantes.
Lo que la IA suele hacer bien
Resumir y organizar: Convirtiendo largos historiales médicos, transcripciones de declaraciones o cadenas de correos electrónicos en resúmenes digeribles que ayudan a un revisor humano a clasificar los problemas con mayor rapidez.
Apoyo al proyecto: Generar un primer borrador de temas de debate, listas de cuestiones o esquemas de documentos que un abogado edita y adapta a los hechos y la jurisdicción.
Manchas de patrón: Resalte los términos recurrentes en los contratos, señale las fechas o firmas que faltan o agrupe documentos similares para una revisión más rápida.
Automatización de tareas: Enrutamiento de documentos, etiquetado de archivos o extracción de metadatos para que los abogados puedan centrarse en el análisis y la estrategia.
Cuando la IA es arriesgada sin la supervisión de un abogado
Análisis jurídico y conclusiones: Determinar la responsabilidad, interpretar las leyes o asesorar sobre estrategias implica juicio, matices jurisdiccionales y ética, ámbitos en los que la responsabilidad humana es esencial.
Decisiones sobre plazos y lugar de celebración: El cálculo de los plazos de prescripción o la elección del lugar de presentación pueden ser determinantes para el resultado; incluso pequeños errores de cálculo de la IA pueden acabar con un caso antes de que empiece.
Redacción específica para cada jurisdicción: “El lenguaje ”de talla única" de un modelo puede contradecir las normas locales, las preferencias de los tribunales o los estatutos estatales.
Gestión de privilegios y confidencialidad: Decidir qué se puede compartir, con quién y cuándo es una decisión legal, no una función del software.
Una pregunta habitual que escuchamos es: “¿Puedo utilizar ChatGPT para asesoramiento jurídico?”. La IA generativa y el Derecho se entrecruzan de forma productiva, pero la IA no puede sustituir a un profesional colegiado. No cumple los deberes de competencia, lealtad y confidencialidad. Trate sus resultados como borradores o hipótesis, no como asesoramiento jurídico.
El riesgo de los documentos de IA generados por el cliente
Cuando los clientes pegan información confidencial, notas estratégicas o detalles de casos en herramientas públicas de IA, pueden renunciar involuntariamente a la confidencialidad. Muchos sistemas de IA de consumo almacenan indicaciones, y algunos incluso las utilizan para entrenar futuras respuestas. Esto significa que los detalles sensibles podrían quedar expuestos o descubrirse más tarde. Antes de subir cualquier cosa a un modelo de lenguaje de IA de código abierto, consulte con su abogado, que puede orientarle sobre los peligros potenciales de compartir información privilegiada o confidencial.
Aunque no se plantee ningún problema de privacidad, las cartas de demanda, notificaciones o reclamaciones redactadas con IA suelen contener errores sutiles que tienen consecuencias de gran envergadura: el nombre del demandado equivocado, una prueba omitida, una fecha incorrecta o una declaración que entra en conflicto con los historiales médicos. Las aseguradoras y los abogados defensores de la parte contraria examinan detenidamente estos documentos; los errores pueden debilitar la capacidad de negociación o la credibilidad.
Alucinaciones, leyes obsoletas y errores de citación
La IA puede “alucinar”: presentar hechos falsos o citas inventadas con confianza. Si a esto le añadimos las plantillas inadaptadas, tenemos una receta para los problemas. Estos son los fallos más comunes que pueden poner en peligro las reclamaciones y los acuerdos:
- Jurisprudencia alucinada: El modelo cita opiniones inexistentes o cita erróneamente sentencias. Si se presenta, esto puede acarrear sanciones o, al menos, dañar la credibilidad.
- Estatutos o normas obsoletos: Las IA formadas en material antiguo pueden pasar por alto modificaciones recientes, decisiones de apelación u órdenes de emergencia que cambien los plazos o las normas.
- Lugar, servicio o plazos equivocados: Presentar la demanda ante el tribunal equivocado, calcular mal los plazos de prescripción o incumplir las normas de notificación pueden dar al traste con la demanda.
- Errores de traspaso de plantillas: Los elementos copiados y pegados (nombres de partes, jurisdicciones o importes erróneos) son fáciles de pasar por alto y pueden utilizarse para cuestionar la autenticidad o la intención.
Privacidad, confidencialidad y ética
Los asuntos legales se rigen por estrictos deberes de confidencialidad y privilegio. Cargar datos en herramientas públicas de inteligencia artificial puede conducirlos a través de múltiples proveedores, países y niveles de retención que no controlas.
Compartir la estrategia, las comunicaciones de los abogados o los identificadores de los clientes con sistemas de terceros podría considerarse divulgación a terceros, lo que podría afectar a las reclamaciones de confidencialidad en función de las circunstancias y la jurisdicción. Los despachos de abogados tienen el deber ético de supervisar a los asistentes y proveedores que no sean abogados. Esto incluye comprender los flujos de datos, el almacenamiento, la retención y la seguridad, e informar a los clientes adecuadamente.
Los clientes deben esperar que sus abogados utilicen herramientas empresariales de modelo cerrado con garantías contractuales de que las indicaciones y los resultados no se utilizan para entrenar modelos públicos y se almacenan con estrictos controles de acceso.
A dónde van sus datos cuando pega los detalles del caso
Cuando pegas información en un chatbot público, tu texto se transmite normalmente a los servidores del proveedor para su procesamiento. Dependiendo del proveedor y de tu configuración:
- Los mensajes pueden registrarse y conservarse para depurar o mejorar el producto.
- Los revisores humanos pueden tomar muestras de entradas/salidas para el control de calidad.
- Los datos pueden almacenarse en regiones fuera de su jurisdicción.
- Las opciones de borrado pueden estar limitadas o retrasadas, y las copias de seguridad pueden persistir.
- Las integraciones (extensiones del navegador, plug-ins) pueden añadir procesadores de datos adicionales que no tenías intención de utilizar.
Por el contrario, los entornos seguros de IA jurídica utilizan cifrado en reposo y en tránsito, fuertes controles de acceso, garantías de residencia de los datos cuando es posible y prohibiciones contractuales de formación con datos de clientes. Pregunta a tu abogado qué plataforma utiliza y por qué.
La IA y la economía del trabajo jurídico
La IA ha creado fricciones entre clientes y empresas en el modelo tradicional de horas facturables. Algunas empresas utilizan la IA para hacer más en menos tiempo y luego facturan como si hubieran necesitado horas de trabajo manual. Otras se guardan para sí las mejoras de eficiencia, mientras los clientes se preguntan dónde ha ido a parar el ahorro.
Nuestro bufete funciona de forma diferente. No facturamos por horas. Trabajamos con honorarios condicionales, lo que significa que sólo cobramos si recuperamos dinero para nuestros clientes. Nuestros intereses están totalmente alineados con los suyos: si la IA nos ayuda a avanzar más rápido o a construir un caso más sólido, usted se beneficia directamente. La tecnología se convierte en una herramienta para la justicia y la eficiencia, no en un coste oculto. Y como son los resultados, y no las horas, los que rigen nuestra retribución, tenemos todos los incentivos para utilizar la IA donde es segura e invertir el tiempo de los abogados donde realmente importa.
Uso responsable y transparente de la IA por los bufetes de abogados
El uso responsable comienza con políticas claras y termina con la responsabilidad humana. Utilizamos la IA de forma reflexiva y transparente. Siempre que aplicamos herramientas asistidas por IA en su caso -ya sea para investigación, revisión de documentos o análisis- revelamos ese uso por adelantado y obtenemos su consentimiento informado.
Solo utilizamos plataformas seguras, de código cerrado y de nivel empresarial que protegen la confidencialidad y no comparten ni utilizan los datos de los clientes. Los abogados y bufetes deben informar a sus clientes en el momento de la contratación de que utilizan IA en su práctica. La mejor práctica consiste en utilizar únicamente LLM de IA seguros y de código cerrado.
Su abogado nunca debe delegar su criterio jurídico en la IA; lo que hace que los abogados sean lo que son es su criterio jurídico independiente. La IA no puede sustituir al pensamiento y el análisis independientes. Tratamos a la IA como a un asistente jurídico y no como un sustituto del trabajo de un abogado. abogado humano.
Lo que su abogado debe revelar sobre el uso de IA
Al ponerse en contacto con un abogado sobre un lesiones personales, daño a la propiedad, o cualquier otro asunto jurídico, debe esperar transparencia sobre si utilizan o no IA y, en caso afirmativo, cómo la utilizan. Esto es lo que debe esperar que le revele su abogado:
- Qué herramientas de IA utilizan y por qué las han elegido.
- Si las herramientas son sistemas cerrados, de nivel empresarial, sin formación sobre tus datos.
- Qué categorías de tareas apoyará la IA (por ejemplo, el resumen) frente a las que siempre realizarán los abogados (por ejemplo, el análisis jurídico, la estrategia, las negociaciones).
- Cómo se verifican las citas y los hechos antes de archivar o compartir nada.
- Cómo se almacenan sus datos, quién puede acceder a ellos y cuánto tiempo se conservan.
- Cómo garantiza la empresa el cumplimiento de las normas éticas y supervisa a los proveedores de tecnología.
Cuándo hablar con un abogado en lugar de con AI
Si estás sopesando recurrir a un abogado o a la IA para cuestiones jurídicas, aquí tienes algunas cosas que debes tener en cuenta. En general, la IA es buena organizando información y redactando preguntas. Necesitarás un abogado para interpretar la ley, sopesar riesgos y tomar decisiones estratégicas. Y siempre debes hablar con un abogado sobre cuándo litigar y cuándo llegar a un acuerdo.
Piensa en la IA como en una calculadora; el abogado sabe qué ecuación resolver y por qué. Y algunas situaciones exigen asesoramiento jurídico autorizado, no un borrador de chatbot, como por ejemplo:
- Archivos judiciales y mociones: Las leyes de prescripción, los requisitos de notificación y los plazos de notificación son implacables. Los errores de procedimiento pueden echar por tierra una reclamación sólida.
- Comunicaciones del asegurador o de la parte contraria: Las declaraciones a los peritos, los comunicados o las entrevistas grabadas pueden afectar a la responsabilidad y a los daños.
- Lesiones complejas o litigios médicos: La causalidad, los costes de asistencia futura y los embargos preventivos requieren estrategia y coordinación experta.
- Casos multipartitos o de culpa controvertida: La asignación de responsabilidad, la contribución y la indemnización dependen de los hechos y de la jurisdicción.
- Documentos de liquidación y descargos: El lenguaje puede extinguir reclamaciones a las que usted no tenía intención de renunciar.
Cómo revisamos con seguridad los materiales elaborados con IA
Tanto si el borrador procede de nuestras herramientas seguras como si el cliente trae un documento generado por chatbot, seguimos un estricto protocolo de revisión:
- Control de conflictos y privilegios: Eliminamos los datos personales superfluos y confirmamos que no se ha incorporado ninguna estrategia privilegiada antes de seguir procesándolos.
- Comprobación de la fuente de la verdad: Verificamos cada hecho con los registros subyacentes: expedientes médicos, informes policiales, fotografías, contratos o correspondencia.
- Adaptación jurisdiccional: Adaptamos el lenguaje al lugar correcto, la ley aplicable y las preferencias de los tribunales locales, y confirmamos las partes, los números de asunto y los subtítulos correctos.
- Validación de citas: Todas las citas de leyes, reglamentos o casos se comprueban directamente en bases de datos autorizadas. Ninguna cita no verificada supera la revisión.
- Alineación de riesgos y estrategia: Evaluamos si el borrador avanza los objetivos del cliente, refuerza la postura negociadora y preserva la opcionalidad.
- Accesibilidad y tono: Nos encargamos de la claridad, la voz del cliente y la legibilidad; eliminamos la jerga que pueda ser malinterpretada por peritos, jueces o jurados.
Visto bueno final del abogado: Un abogado responsable aprueba la versión final, asumiendo la responsabilidad de su exactitud e idoneidad.
La IA no sustituye al juicio jurídico, al pensamiento estratégico ni a la empatía humana que impulsa lo que hacemos. Pero si se utiliza de forma responsable, puede ayudarnos a obtener resultados aún mejores. Nuestro objetivo es modelar ese equilibrio, aprovechando estas innovaciones tecnológicas al tiempo que mantenemos la confianza de nuestros clientes y la integridad que define el ejercicio de la abogacía. En nuestro bufete, la tecnología nunca sustituirá a la ética ni a la responsabilidad. Es simplemente otra forma de trabajar para lograr los mejores resultados para las personas que representamos.

