En un mundo donde la inmediatez es prioridad y la inteligencia artificial se ha vuelto la “solución” para todo, un hombre de 60 años terminó en el hospital tras seguir una peligrosa recomendación de ChatGPT: sustituir la sal de mesa por bromuro de sodio, un químico no apto para el consumo humano.
Preocupado por reducir su consumo de cloruro de sodio, el hombre consultó a la popular IA en busca de una alternativa. La respuesta fue clara, pero completamente errónea: bromuro de sodio. Lo incluyó en su dieta durante tres meses.

Al principio, los síntomas parecían menores. Pero con el paso de las semanas empezó a experimentar alucinaciones, paranoia, fatiga extrema y confusión mental. Los médicos que lo atendieron diagnosticaron bromismo, una intoxicación por bromuro, y relataron que incluso “se negó a beber agua, convencido de que era peligrosa”.
Hombre consume cloruro de sodio
“Había tomado la decisión de sustituir el cloruro de sodio por bromuro de sodio basándose en lo que había leído en ChatGPT”, explicó el paciente durante su recuperación en una unidad psiquiátrica.

La historia, más allá del impacto, lanza una fuerte advertencia sobre los riesgos de confiar ciegamente en herramientas de inteligencia artificial para temas médicos. Aunque pueden parecer confiables, estas plataformas no sustituyen el criterio profesional ni el respaldo de un especialista.
El caso encendió alertas entre profesionales de la salud, quienes reiteraron que nunca se debe seguir una recomendación médica sin consultar a expertos o validar con fuentes científicas.





