La inteligencia artificial (IA) ha dejado de ser una promesa futurista para convertirse en una herramienta tangible y poderosa en el arsenal del abogado moderno. Desde la automatización de la revisión de documentos hasta la predicción de resultados judiciales, su potencial para optimizar nuestra práctica es innegable. Sin embargo, esta revolución tecnológica avanza más rápido que su marco regulatorio, creando una zona gris cargada de riesgos que no podemos ignorar. Recientes acciones legales de alto perfil y los esfuerzos regulatorios en Europa son una clara señal de advertencia: es momento de proceder, pero con la máxima cautela.

Las Señales de Alerta: Demandas que Marcan un Precedente

El debate sobre los límites de la IA no es meramente teórico. Ya se está librando en los tribunales, y los detalles de estas demandas deberían resonar en cada despacho de abogados.

  1. El Caso de la Apropiación Masiva de Datos (Clarkson vs. OpenAI y Microsoft): En junio de 2023, el bufete californiano Clarkson Law Firm interpuso una demanda colectiva que acusa a OpenAI, creador de ChatGPT, de un robo de datos a escala masiva. La alegación central es que, para entrenar sus modelos, OpenAI «raspó» (scraped) secretamente y sin consentimiento la información personal de millones de usuarios de internet. Esto incluye desde comentarios en redes sociales hasta, como se ha señalado, conversaciones potencialmente confidenciales en foros legales como Reddit. La demanda no solo alega una violación flagrante de la privacidad, sino también negligencia y enriquecimiento injusto.
  2. La Batalla por los Derechos de Autor (The New York Times, Sarah Silverman vs. OpenAI): Paralelamente, gigantes de la comunicación como The New York Times y figuras públicas como la autora Sarah Silverman han demandado a OpenAI por infracción de derechos de autor. Argumentan que sus obras protegidas —artículos, libros, guiones— fueron utilizadas masivamente como material de entrenamiento sin licencia ni compensación. Esto plantea una pregunta crítica para nosotros: ¿podría el resultado generado por una IA para un caso estar, sin saberlo, infringiendo derechos de autor?
  3. La Privacidad del Cliente en el Punto de Mira: Quizás el punto más alarmante para nuestra profesión surgió del litigio con el New York Times. Un tribunal federal ordenó a OpenAI preservar todas las conversaciones de los usuarios de ChatGPT como evidencia potencial, incluso aquellas que los usuarios habían eliminado. Esto pulveriza cualquier noción de confidencialidad en las plataformas de IA públicas y subraya un riesgo existencial para el secreto profesional abogado-cliente.

El Intento de Poner Orden: La Ley de IA de la Unión Europea

Consciente de estos peligros, la Unión Europea ha dado un paso pionero con la aprobación de su Ley de Inteligencia Artificial. Aunque su implementación será gradual hasta 2026, su enfoque basado en el riesgo ya nos da una hoja de ruta. La ley clasifica los sistemas de IA, imponiendo las obligaciones más estrictas a los de «alto riesgo». Es crucial destacar que en esta categoría se incluyen sistemas relacionados con la administración de justicia y los procesos democráticos. Esto significa que cualquier herramienta de IA que pretenda asistir en la toma de decisiones judiciales estará bajo un escrutinio regulatorio severo.

Sin embargo, la ley aún está en proceso de implementación. Mientras la regulación se consolida, la responsabilidad recae directamente sobre nosotros.

Redefiniendo la Confidencialidad: El Eje de la Seguridad Contractual

Ante estos riesgos, la primera reacción podría ser una prohibición absoluta: «nunca introducir datos de un cliente en una IA». Si bien esta postura es segura, es también una simplificación que puede frenar la innovación. La clave no es la prohibición, sino la diligencia debida en la selección de la herramienta.

La solución pasa por la seguridad contractual. Hoy, la mayoría de los proveedores de IA ofrecen servicios de pago o empresariales (como ChatGPT Enterprise o las integraciones de Microsoft Copilot) que incluyen términos de servicio y adendas de procesamiento de datos diseñados específicamente para garantizar la privacidad. Estos contratos aseguran que los datos introducidos por el cliente no se utilizarán para entrenar los modelos públicos y que se mantendrán aislados y confidenciales.

Este concepto no es nuevo para la profesión legal. Es análogo a cómo gestionamos otras herramientas digitales esenciales, como el correo electrónico. Ningún abogado prudente utilizaría un servicio de email gratuito y desconocido para comunicaciones sensibles con un cliente. En cambio, confiamos en plataformas empresariales como Microsoft 365 o Google Workspace, no porque la información no viaje por internet, sino porque tenemos un contrato de servicio que garantiza la seguridad, la privacidad y el cumplimiento normativo. El mismo estándar riguroso debe aplicarse a la IA: la versión pública y gratuita es para tareas genéricas; las herramientas de pago con garantías contractuales son las únicas candidatas para manejar información sensible.

De la Teoría a la Práctica: Implementando un Protocolo de IA Seguro

La existencia de estos riesgos no debe llevarnos a la parálisis. La solución es la adopción de un estándar de uso y una ética profesional mucho más elevados. Para ello, cada despacho debe construir un marco de trabajo proactivo:

  1. Auditoría y Política Interna: Realice un inventario de las herramientas de IA que ya se usan en su firma. Elabore una política clara que distinga entre las herramientas públicas prohibidas para datos sensibles y las plataformas empresariales aprobadas. Esta política debe ser vinculante y especificar qué se puede hacer, con qué herramienta y bajo qué condiciones.
  2. Verificación Humana Rigurosa: La IA es un asistente, no un sustituto. Cada dato, argumento y cita legal generada debe ser verificada meticulosamente por un profesional. Las «alucinaciones» —información inventada— son un riesgo real con consecuencias devastadoras.
  3. Formación Continua: La tecnología evoluciona mensualmente. Los despachos deben comprometerse a una formación continua sobre nuevas capacidades de la IA, actualizaciones regulatorias y mejores prácticas de ciberseguridad.
  4. Priorizar Soluciones «Walled Garden»: Para la máxima seguridad, se deben explorar soluciones de IA diseñadas para operar en un «jardín cerrado» (walled garden), garantizando que los datos nunca abandonen un entorno controlado. La inversión en estas herramientas, aunque mayor, es incomparable al coste de una brecha de datos o una sanción por mala praxis.

En conclusión, nos encontramos en una encrucijada. La inteligencia artificial nos ofrece una oportunidad sin precedentes, pero las alarmas legales y éticas ya están sonando. Adoptar la IA de manera responsable y ética no es solo una estrategia de mitigación de riesgos, es la única forma de asegurar que esta poderosa herramienta sirva a su propósito más elevado: la búsqueda de la justicia, sin sacrificar la confianza y la confidencialidad que nuestros clientes depositan en nosotros. La pregunta no es si usaremos IA, sino cuán profesional y diligentemente lo haremos.