Tu charla con ChatGPT podría no ser privada ante una demanda, advierte el CEO de OpenAI
Si usas ChatGPT para obtener apoyo emocional o terapia, tus conversaciones con la IA de OpenAI podrían no ser tan privadas como imaginas. Un juez podría solicitar la revisión de tus interacciones con el chatbot.
Esta fue la declaración del propio Sam Altman, CEO de OpenAI. Según Altman, actualmente no hay un marco de confidencialidad legal porque la industria de inteligencia artificial aún no define cómo proteger adecuadamente estas conversaciones delicadas. En otras palabras, no existe de momento una confidencialidad similar a la de médico-paciente que sí se aplica con un profesional real.
Los comentarios de Altman surgieron durante un episodio reciente del podcast This Past Weekend w/Theo Von. Allí, el CEO respondió a una pregunta sobre cómo funciona la inteligencia artificial en el sistema legal actual. Señaló que la falta de un marco legal o de políticas para la IA es uno de los principales problemas, pues impide la confidencialidad en las conversaciones que los usuarios tienen con el chatbot.
La diferencia clave con un terapeuta
De acuerdo con Altman, ChatGPT no solo se usa en entornos de productividad y creatividad, sino también para que las personas hablen con la IA sobre sus problemas “más personales”.
Este comportamiento se observa principalmente en jóvenes, quienes utilizan la IA no solo como terapeuta, sino también como coach de vida e incluso le consultan sobre problemas de pareja para saber qué deben hacer. Sin embargo, aquí radica la gran diferencia con los profesionales humanos: si una persona habla con un terapeuta, abogado o médico, existe el privilegio legal de la confidencialidad, un aspecto que, según Altman, todavía no se resuelve con la IA.

Según el CEO, esto puede generar varios problemas de privacidad para las conversaciones de los usuarios si se presenta una demanda. En ese escenario, OpenAI estaría legalmente obligada a entregar dichas conversaciones. Altman considera que se debería aplicar un concepto de privacidad para estas interacciones similar al que existe con los terapeutas.
Para OpenAI, esta falta de privacidad podría provocar que menos personas usen sus productos, porque podrían percibir que no es seguro exponer su información a una empresa que no puede garantizar el control total sobre esos contenidos.
La demanda del New York Times como antecedente
Actualmente, OpenAI enfrenta varios procesos judiciales, como la demanda de The New York Times. Esta acción legal le obligaría a guardar las conversaciones de millones de usuarios de ChatGPT a nivel mundial, con excepción de los clientes de ChatGPT Enterprise o Edu. El argumento del periódico es que el almacenamiento de estos datos puede ayudar a encontrar evidencia sobre violaciones de derechos de autor, pues sostiene que los modelos de IA de la compañía se entrenaron con su material protegido sin permiso.
La propia OpenAI ha comunicado que actualmente aplica esta orden, aunque la considera “extralimitada”. La empresa advierte que si un tribunal dicta cómo debe manejar sus datos, podrían surgir demandas adicionales que aprovechen este antecedente.
Irónicamente, y según reporta TechCrunch, el propio Sam Altman no usa mucho ChatGPT. La razón es que tiene sus propias preocupaciones sobre la privacidad del producto. Antes de integrarlo como un elemento de su vida diaria, prefiere esperar a que exista “claridad legal” sobre su uso.