Winvest — Bitcoin investment

Altman advierte: «No hay confidencialidad legal con ChatGPT»

En este contexto de mercado, productos de rendimiento sobre activos digitales están siendo utilizados para optimizar capital → Explorar alternativas disponibles.

Espacio patrocinado

En una entrevista reciente con Theo Von en el pódcast This Past Weekend, el CEO de OpenAI, Sam Altman, dejó una advertencia clara.

Según explicó, las conversaciones con ChatGPT -incluso las más personales- no están protegidas legalmente y pueden ser utilizadas en caso de demandas judiciales.

Altman declaró que millones de personas ya recurren a ChatGPT para hablar de emociones, relaciones o problemas de salud mental. Esto incluye a muchos jóvenes y menores de edad. Sin embargo, aclaró que «todavía no hemos resuelto cómo manejar la confidencialidad en estas interacciones con IA».

No es como hablar con un terapeuta o un abogado

Sam Altman hizo una comparación directa que genera alarma. Dijo: «Si hablas con un terapeuta, un abogado o un médico, existe confidencialidad legal. Pero con ChatGPT no».

Altman insinuó que todas las conversaciones con ChatGPT pueden presentarse en un tribunal en caso de una demanda. (Fuente de la imagen: YouTube)

Eso significa que si compartes detalles íntimos con el chatbot, no cuentas con la protección legal habitual.

En sus palabras: «La gente le cuenta a ChatGPT las cosas más personales de su vida… Y podríamos vernos obligados a entregar esa información si hay una demanda. Y eso me parece muy mal».

¿Puede OpenAI acceder a tus conversaciones?

Sí. A diferencia de plataformas como WhatsApp o Signal -que usan cifrado de extremo a extremo-, OpenAI puede leer todas las conversaciones entre el usuario y ChatGPT. De hecho, sus empleados pueden acceder a estos datos para mejorar el modelo y revisar posibles usos indebidos.

Incluso aunque OpenAI asegura borrar los chats de la versión gratuita en 30 días, puede conservarlos por razones legales o de seguridad. Este punto cobra especial relevancia porque la empresa enfrenta actualmente una demanda del New York Times, lo que requiere que almacene muchas conversaciones de sus usuarios.

Implicaciones para la privacidad digital

El problema va más allá de una simple cláusula en los términos de uso. Altman reconoció que la industria tecnológica no tiene aún un marco legal claro para proteger la privacidad en conversaciones con IA. Y eso abre un riesgo importante.

Si usas ChatGPT como si fuera un confidente o terapeuta, debes saber que esa información puede acabar en manos de terceros. Ya sea por una investigación legal, por motivos de seguridad o por el entrenamiento del sistema, tus palabras no están a salvo.

¿Qué puedes hacer como usuario?

Hasta que exista una regulación específica, lo más prudente es no compartir temas delicados o íntimos con ChatGPT u otros chatbots de inteligencia artificial. Limita tus conversaciones a temas informativos, profesionales o recreativos.

La advertencia de Altman debería tomarse en serio.

Como él mismo concluyó: «Esto debe resolverse con urgencia». La privacidad en la era de la inteligencia artificial no es un hecho; es un desafío pendiente.

VipTrader
VipTrader
Analista de Mercados Financieros, desde 2006.

Deja un comentario

Columnistas destacados

Comunicados de Prensa

Asia