La privacidad en ChatGPT está bajo escrutinio tras las recientes declaraciones de Sam Altman, CEO de OpenAI, quien advirtió que las conversaciones con el chatbot no tienen protección legal. En una charla en el pódcast This Past Weekend el 22 de julio de 2025, Altman señaló que los datos compartidos con ChatGPT podrían ser entregados a autoridades en casos judiciales. Esta revelación ha generado preocupación entre los usuarios, especialmente aquellos que usan la IA para temas personales o sensibles. Con el creciente uso de herramientas de inteligencia artificial, la falta de confidencialidad plantea riesgos que los usuarios deben conocer antes de compartir información delicada.
Sin secreto profesional
Durante el pódcast, Altman explicó que, a diferencia de médicos o abogados, ChatGPT no está obligado a mantener el secreto profesional. “Si hablas con ChatGPT sobre temas delicados y surge una demanda, podríamos tener que entregar esa información”, dijo. Esta falta de protección legal es un punto crítico, ya que muchos usuarios tratan a la IA como un confidente para temas personales. Altman abogó por establecer normas de privacidad similares a las de un terapeuta, pero reconoció que la regulación actual no lo permite. Esta advertencia llega en un momento en que la IA se usa cada vez más para apoyo emocional.
OpenAI ha enfrentado críticas por sus políticas de datos. Según su política de privacidad, actualizada el 27 de junio de 2025, la empresa recopila información como prompts, respuestas y datos de contacto. Los usuarios pueden optar por no permitir que sus datos entrenen modelos, pero esta opción no está activada por defecto. La Comisión de Servicios Públicos de California no ha emitido comentarios específicos sobre este caso, pero las leyes estatales como la California Consumer Privacy Act (CCPA) exigen transparencia en el manejo de datos personales. Los usuarios deben ser cautelosos al compartir información sensible.
Te Recomendamos
Riesgos legales de la privacidad en ChatGPT
La posibilidad de que las conversaciones con ChatGPT sean usadas en tribunales ha encendido alarmas. En 2023, un juez en EE UU consideró sanciones tras el uso de citas falsas generadas por ChatGPT en un caso legal. Este precedente, mencionado por usuarios en redes sociales, resalta el riesgo de que los datos sean citados como evidencia. “No hay garantía de confidencialidad como con un médico”, reiteró Altman. OpenAI enfrenta una demanda de The New York Times, que acusa a la empresa de usar contenido protegido para entrenar modelos, lo que complica aún más su postura sobre la privacidad en ChatGPT.

La empresa apeló una orden judicial que exige conservar millones de conversaciones de usuarios, excepto las de la versión Enterprise. Esta solicitud, emitida por un tribunal federal en Nueva York el 15 de julio de 2025, busca datos para investigar violaciones de derechos de autor. OpenAI calificó la orden como una “extralimitación”, argumentando que compromete la privacidad de los usuarios. Sin embargo, la falta de claridad regulatoria deja a la empresa vulnerable a solicitudes legales, lo que podría exponer datos personales en futuros casos.
Preocupaciones crecientes
El uso de ChatGPT como sustituto de interacciones humanas preocupa a expertos. Un estudio de OpenAI y el MIT Media Lab, publicado en abril de 2025, encontró que algunos usuarios recurren al chatbot para apoyo emocional debido a su estilo conversacional. Esto puede generar dependencia y riesgos psicológicos, además de problemas de privacidad. “No sé quién tendrá acceso a mi información”, admitió Altman, reflejando una inquietud común entre los usuarios. Las políticas de OpenAI permiten recopilar datos como correos, números telefónicos y geolocalización, aunque aseguran que se anonimizan.

Los usuarios pueden gestionar su privacidad en ChatGPT a través del portal de privacidad de OpenAI, solicitando acceso, corrección o eliminación de datos. Sin embargo, estas acciones no siempre son automáticas y requieren contactar a la empresa directamente. La política de privacidad de OpenAI, actualizada en junio de 2025, indica que los datos se retienen solo el tiempo necesario para fines como seguridad o cumplimiento legal. A pesar de estas medidas, la posibilidad de que la información sea entregada en un proceso judicial sigue siendo una preocupación real para los usuarios.
La advertencia de Altman pone de manifiesto un dilema: la IA ofrece herramientas poderosas, pero sin regulaciones claras, la privacidad en ChatGPT está en riesgo. Los usuarios deben ser conscientes de que compartir detalles sensibles podría tener consecuencias legales. Mientras OpenAI trabaja por establecer normas éticas, la falta de confidencialidad legal sigue siendo un obstáculo. Por ahora, quienes usan ChatGPT deben pensar dos veces antes de compartir información personal, ya que la protección de sus datos no está garantizada.