La pesadilla digital que nadie vio venir: se filtraron 183 millones de contraseñas asociadas a cuentas de Gmail y los expertos en ciberseguridad están en alerta máxima. El escándalo, que tiene como protagonista a la plataforma Have I Been Pwned, revela que este ataque masivo fue detectado recientemente, aunque ocurrió desde abril.
Los datos expuestos incluyen no solo direcciones de correo electrónico, sino también sus contraseñas, lo que podría dar acceso a cuentas bancarias, redes sociales, y cualquier plataforma vinculada con Gmail.

ShadowLeak: el ataque invisible que usó a ChatGPT
Aún más alarmante es que un fallo en la inteligencia artificial permitió el robo de datos sin que el usuario hiciera clic en nada. El ataque, bautizado como ShadowLeak, fue descubierto por investigadores de Radware, quienes explicaron que los hackers ocultaban instrucciones dentro de correos aparentemente inofensivos usando texto blanco sobre blanco, fuentes diminutas o códigos CSS.
Una vez que los usuarios pedían al agente de Investigación Profunda de ChatGPT que revisara su bandeja de entrada, la IA ejecutaba las órdenes sin saber que estaba entregando información sensible.
“El usuario nunca ve el aviso. El correo electrónico parece normal, pero el agente sigue los comandos ocultos sin preguntar”, explicaron los investigadores de Radware.

¿Cómo protegerte ahora?
La recomendación inmediata es cambiar la contraseña de Gmail y activar la autenticación en dos pasos, lo cual añade una capa de seguridad adicional. También puedes revisar si tu cuenta ha sido vulnerada entrando a haveibeenpwned.com.
“Los datos procedían de un hackeo mucho más amplio que se había realizado en Internet”, explicó Troy Hunt, responsable del sitio web. Además, los expertos advierten que otros sistemas integrados con IA, como Dropbox y SharePoint, podrían ser los siguientes objetivos.

El peligro de la IA desprotegida
Otro hallazgo revelador fue publicado por la empresa de seguridad SPLX, que demostró cómo ChatGPT puede ser engañado para resolver CAPTCHAs y simular movimientos humanos. Esto permitiría a los bots evadir sistemas que antes servían para proteger a los usuarios.
“Estos incidentes ponen de relieve cómo el envenenamiento del contexto y la manipulación puntual pueden romper silenciosamente las salvaguardias de la IA”, concluyó el investigador Dorian Schultz.




