El uso de herramientas de inteligencia artificial como ChatGPT, Gemini y otras plataformas conversacionales se ha vuelto parte de la vida cotidiana. Sin embargo, expertos en ciberseguridad han lanzado una advertencia clara: existen ciertos temas que no deben ser consultados ni compartidos con estas tecnologías, debido al riesgo que representan para la privacidad, la seguridad personal y la confidencialidad de datos.

Aunque las IA están diseñadas para asistir en tareas informativas, creativas o técnicas, no son entornos seguros para divulgar datos sensibles. Estas son las seis cosas que nunca debes preguntarle o decirle a una inteligencia artificial:
1. Información personal sensible
Nunca compartas tu nombre completo, dirección, número telefónico, CURP, fecha de nacimiento u otros datos que te identifiquen. Estas plataformas pueden almacenar conversaciones que, en caso de filtración, pondrían en riesgo tu identidad.
2. Datos financieros
Evita ingresar números de cuenta, tarjetas de crédito o claves bancarias. Aunque la conversación parezca privada, estos sistemas no garantizan una protección bancaria certificada.
3. Contraseñas y accesos
No uses estos chats para guardar ni generar contraseñas confidenciales. Ingresar PINs, claves o códigos de acceso puede derivar en hackeos si la información es expuesta por vulnerabilidades del sistema.

4. Historial médico o datos de salud
Las IA no están autorizadas para gestionar datos clínicos bajo estándares sanitarios. Ingresar diagnósticos, tratamientos o resultados de estudios compromete tu confidencialidad médica.
5. Información corporativa o estratégica
Documentos internos, códigos fuente, contratos, planes de negocio o información sobre clientes no deben compartirse. Varias compañías han reportado filtraciones por el mal uso de estas plataformas en ambientes laborales.
6. Situaciones personales delicadas o embarazosas
Aunque puede parecer una conversación “segura”, el contenido puede ser almacenado o revisado para entrenar algoritmos. Lo que compartes podría ser analizado por humanos en procesos de control de calidad.
Utilizar inteligencias artificiales también implica riesgos importantes. Entre los más comunes se encuentran la filtración de datos, ya que algunas plataformas pueden retener la información ingresada por meses o incluso años. También existe la posibilidad de revisión humana, ya que empleados o contratistas pueden tener acceso a ciertas conversaciones para fines de entrenamiento y control de calidad del sistema.

TAMBIÉN TE PUEDE INTERESAR: James Carter Cathcart, voz emblemática de Pokémon, fallece a los 71 años




