¿Cómo de seguro es usar ChatGPT?

En los últimos años, el uso de herramientas de inteligencia artificial como ChatGPT se ha extendido de forma masiva tanto en el ámbito personal como profesional. Millones de personas lo utilizaos a diario para redactar textos, resolver dudas, analizar documentos o simplemente conversar. Sin embargo, una pregunta legítima y cada vez más frecuente es: ¿qué ocurre con la información que compartimos? ¿Es seguro subir documentos, datos personales o información sensible a ChatGPT?

¿Qué pasa con lo que escribes en ChatGPT? ¿Dónde se almacena la información? ¿Va a la nube?

Cuando un usuario escribe un mensaje en ChatGPT, ese texto viaja a los servidores de OpenAI, la empresa estadounidense que desarrolla y opera la herramienta. Esto significa que la conversación no se queda en el dispositivo del usuario, sino que se procesa en la nube, concretamente en infraestructuras alojadas en Estados Unidos.

OpenAI almacena las conversaciones y, salvo que el usuario lo desactive expresamente, puede utilizarlas para mejorar y entrenar sus modelos de inteligencia artificial. Es decir, lo que escribes podría ser revisado por empleados de la empresa o usado para afinar el comportamiento futuro del sistema.

Esto no significa que tus conversaciones sean públicas ni que cualquiera pueda leerlas. Pero sí implica que no son completamente privadas en el sentido estricto del término.

¿Y esa información va a la nube?. Toda la información introducida en ChatGPT va a la nube. Los servidores de OpenAI están en Estados Unidos, lo que implica que los datos quedan fuera del alcance del Reglamento General de Protección de Datos (RGPD) europeo en su sentido más estricto, aunque OpenAI ha adoptado ciertas medidas para intentar cumplir con la normativa europea.

Las conversaciones se guardan en el historial del usuario y permanecen almacenadas mientras la cuenta esté activa o hasta que el usuario las elimine manualmente. En la versión gratuita y en ChatGPT Plus, el historial está activado por defecto.

Si que existe la opción de desactivar el historial de conversaciones desde los ajustes de la cuenta. Si se desactiva, OpenAI indica que esas conversaciones no se usarán para entrenar modelos, aunque sí se pueden conservar durante un periodo limitado por razones de seguridad o supervisión.

¿Aprende ChatGPT de lo que le escribes?

Esta es quizás la pregunta que más preocupa. ChatGPT no aprende en tiempo real de cada conversación individual. El modelo no actualiza su conocimiento de forma instantánea con cada mensaje que recibe. 

Su base de conocimiento fue construida durante un proceso de entrenamiento con grandes volúmenes de texto.

Sin embargo, OpenAI sí puede utilizar esas conversaciones almacenadas para futuros ciclos de entrenamiento y mejora de su modelo, a menos que como usuario hayas desactivado esta opción. Esto significa que, aunque hoy tu conversación no altere el comportamiento del sistema, sí podría formar parte del conjunto de datos con el que se entrene una versión futura.

En entornos empresariales con la versión ChatGPT Team o Enterprise, ofrece garantías adicionales: los datos de las conversaciones no se usan para entrenar modelos por defecto, y las empresas tienen mayor control sobre la información que se comparte.

¿Qué información NO deberías subir a ChatGPT?

Teniendo en cuenta todo lo anterior, hay ciertos tipos de información que conviene no compartir con ChatGPT o cualquier herramienta de IA similar:

  • Datos personales de pacientes o clientes: historiales médicos, datos de salud, información financiera o cualquier dato que pueda identificar a una persona.
  • Contraseñas, claves de acceso o credenciales: nunca deben introducirse en ninguna plataforma de IA.
  • Información empresarial confidencial: estrategias de negocio, datos internos, contratos o propiedad intelectual sensible.
  • Datos bancarios o de tarjetas de crédito: sin excepción.
  • Información legal privilegiada: documentos sujetos a secreto profesional o procedimientos judiciales en curso.

En el ámbito sanitario esto es especialmente relevante. Un médico no debería introducir en ChatGPT datos identificativos de sus pacientes, ya que esto podría suponer una vulneración de la normativa de protección de datos sanitarios.

¿Puedes estar tranquilo usando ChatGPT?

Depende del uso que se haga. Para tareas cotidianas como redactar textos, obtener ideas, resumir información genérica o aprender sobre un tema, ChatGPT es una herramienta segura siempre que se utilice con sentido común.

El problema surge cuando se introduce información sensible, confidencial o personal. En esos casos, el riesgo no es que un hacker acceda a tus datos en ese momento, sino que esa información quede almacenada en servidores externos, fuera de tu control, y pueda ser revisada o utilizada de formas que no esperabas.

OpenAI ha implementado medidas de seguridad como el cifrado de datos en tránsito y en reposo, programas de detección de vulnerabilidades que limitan el acceso interno a las conversaciones. Pero ninguna plataforma digital es completamente inmune a filtraciones o incidentes de seguridad.

Consejos prácticos para usar ChatGPT de forma más segura

  • Desactiva el historial si no necesitas conservar las conversaciones: Ajustes → Controles de datos → Mejorar el modelo para todos → Desactivar.
  • Anonimiza la información antes de introducirla. Si necesitas analizar un caso clínico, elimina nombres, fechas y datos identificativos.
  • Usa la versión Enterprise o API si trabajas en un entorno profesional con datos sensibles, ya que ofrecen mayores garantías de privacidad.
  • No asumas que todo es confidencial. Trata ChatGPT como si fuera un servicio de correo electrónico: útil, pero no totalmente privado.

ChatGPT es una herramienta poderosa y, usada con cabeza, bastante segura para el uso general. El verdadero riesgo no está en la herramienta en sí, sino en el tipo de información que decidimos compartir con ella. La regla de oro es sencilla: si no publicarías esa información en internet, no la introduzcas en ChatGPT.

La inteligencia artificial ha llegado para quedarse y sus aplicaciones son enormes. Pero como ocurre con cualquier tecnología, la responsabilidad de usarla de forma segura recae también en el usuario.