Pon atención, porque si eres de esas personas que utilizan a ChatGPT como terapeuta o confidente, esto podría ser contraproducente, ya que la información que reveles en esas conversaciones podría ser utilizada en tu contra en un juicio o incluso entregada a las autoridades judiciales.

No hay confidencialidad legal en las conversaciones con la IA
Así lo dio a conocer Sam Altman, CEO de OpenAI, la empresa responsable de ChatGPT, quien lamentó que actualmente no exista un marco legal que respalde la privacidad de esas conversaciones, las cuales, para muchas personas alrededor del mundo, han funcionado como una forma de terapia emocional o desahogo confidencial.
“Ahora mismo, si hablas con un terapeuta, un abogado o un médico sobre esos problemas, existe un privilegio legal para ello: confidencialidad médico-paciente, confidencialidad legal. Aún no hemos resuelto eso para cuando hablas con ChatGPT”, declaró Altman durante una conversación en el podcast del comediante Theo Von.

Lo que compartas con la IA podría ser requerido por un juez
Esto significa que, si por alguna razón una persona enfrenta un problema legal y es llevada a juicio, las conversaciones sostenidas con ChatGPT podrían ser solicitadas por el juez y usadas como prueba, si así se determina.
“Si hablas con ChatGPT sobre tus cosas más sensibles y luego hay una demanda o lo que sea, podríamos estar obligados a presentar eso. Y pienso que eso está muy mal”, expresó Altman, reconociendo la urgencia de contar con leyes que protejan estos intercambios.

Altman propone un nuevo tipo de privacidad para la IA
El CEO de OpenAI hizo un llamado para que se establezca una nueva normativa legal que brinde protección y confidencialidad a las conversaciones con inteligencias artificiales como ChatGPT.
“Creo que deberíamos tener el mismo concepto de privacidad para tus conversaciones con la IA que tenemos con un terapeuta. Y nadie tenía que pensar en eso hace un año. Ahora, creo que es un gran problema: ¿cómo vamos a tratar las leyes al respecto?”, agregó.