ChatGPT: demanda de 250 millones revela que tus chats podrían no ser privados

Mostrar resumen Ocultar resumen

Los fallos recientes en tribunales estadounidenses muestran que conversar con un asistente de inteligencia artificial ya no es un acto privado: mensajes borrados y consultas a chatbots han terminado siendo evidencia en litigios de alto perfil. Para los usuarios en España esto plantea una pregunta urgente: ¿pueden nuestras interacciones con IA ser recuperadas y usadas en un juicio?

Casos que marcan tendencia

En Estados Unidos se han sucedido al menos dos procesos en los que las conversaciones con chatbots han tenido un papel decisivo. En uno de ellos, el responsable de una compañía siguió instrucciones obtenidas de un asistente conversacional para reducir un pago millonario y, tras borrar los registros, admitió ante el tribunal la supresión de registros relacionados con esas consultas. Los jueces valoraron esa conducta como indicio negativo.

En otro procedimiento vinculado a un presunto fraude, una interacción con otro modelo lingüístico fue presentada como prueba. El juez determinó que esas comunicaciones no gozaban de la protección privilegiada propia de la relación abogado-cliente, y subrayó que los términos de uso de muchas plataformas permiten la cesión de datos a autoridades bajo ciertas circunstancias.

Qué guardan las plataformas y qué pueden hacer con esos datos

Contrario a la sensación de privacidad que transmiten, muchas aplicaciones de conversación almacenan los hilos de chat en sus servidores. Incluso las opciones anunciadas como “temporales” suelen permanecer disponibles durante un tiempo determinado —por ejemplo, algunos servicios conservan registros por unos 30 días— salvo que el usuario active configuraciones específicas.

Las condiciones legales de estas empresas contemplan la posibilidad de ceder información a organismos públicos o terceros cuando lo exige la normativa vigente. Además, salvo cuando se desactiva expresamente, el contenido de las interacciones puede emplearse para mejorar y reentrenar los modelos.

  • Evidencia judicial: las conversaciones pueden solicitarse como prueba en investigaciones o juicios.
  • Eliminación insuficiente: borrar un chat no garantiza que la información desaparezca por completo ni evita su uso en un proceso.
  • Sin privilegio automático: los tribunales han situado estas consultas fuera del secreto abogado-cliente en determinados casos.
  • Entrenamiento de modelos: los textos pueden incorporarse a conjuntos de datos salvo que el usuario lo prohíba en la configuración.
  • Obligación legal: las plataformas pueden verse forzadas a conservar o entregar datos ante requerimientos oficiales.

Cómo encajaría esto en España

En nuestro país no se ha registrado aún un caso idéntico, pero existe una base jurídica aplicable a las pruebas digitales. La doctrina del Tribunal Supremo (STS 300/2015) admite conversaciones electrónicas como prueba, con la salvedad de que, si la parte contraria cuestiona su autenticidad, será preciso un peritaje informático para acreditarla.

En la práctica esto significa que un abogado podría aportar una transcripción de un chat con un asistente de IA; la defensa pediría su impugnación y un experto forense informático analizaría la trazabilidad y la integridad del registro. Si los peritos concluyen que el archivo es genuino, el juez podría admitirlo como prueba.

Implicaciones para ciudadanos y empresas

El panorama legal y técnico está cambiando con rapidez, y esas transformaciones tienen efectos concretos:

  • Los usuarios deben asumir que sus consultas a un chatbot podrían dejar rastro y, en casos extremos, reaparecer en procesos judiciales.
  • Empresas y directivos se enfrentan al riesgo de que decisiones basadas en indicaciones de un modelo conversacional sean objeto de escrutinio legal.
  • Los equipos legales deberán incluir al peritaje informático como herramienta habitual cuando la autenticidad de evidencia digital se debate en los tribunales.

En definitiva, la frontera entre una conversación privada y un registro susceptible de convertirse en prueba se estrecha. Tratar a los asistentes virtuales como si fueran meras notas personales puede dejar a usuarios y organizaciones expuestos en contextos judiciales.

Da tu opinión

Sé el primero en valorar esta entrada
o deja una reseña detallada



PCReviews es un medio independiente. Apóyanos añadiéndonos a tus favoritos de Google News:

Publicar un comentario

Publicar un comentario