Madre demanda a Roblox y Discord por el suicidio de su hijo

La demandante afirma que los sitios no tiene fuertes medidas de seguridad.
La demandante afirma que los sitios no tienen fuertes medidas de seguridad. | Redes Sociales

Rebecca Dallas, madre de Ethan Dallas, un adolescente de 15 años de California que se quitó la vida en abril de 2024, presentó una demanda contra Roblox y Discord, a quienes acusa de haber permitido el abuso sexual y psicológico que sufrió su hijo a través de dichas plataformas.

La denuncia fue presentada en la Corte Superior del Condado de San Francisco y señala a ambas empresas de operar "de forma imprudente y engañosa", lo que derivó en la explotación sexual del menor y, finalmente, en su suicidio.

Según la demanda, Ethan era un “niño brillante e imaginativo que amaba los videojuegos, hacer streams y convivir con amigos en línea”. Comenzó a jugar en Roblox a los 9 años con el consentimiento de sus padres y bajo controles parentales, pero a los 12 fue contactado por un depredador adulto que fingía ser otro menor.

Roblox es acusado de permitir la entrada de personas sin controlar la edad / Redes Sociales
Roblox es acusado de permitir la entrada de personas sin controlar la edad / Redes Sociales

Dañan a menor en Roblox

Trágicamente, Ethan fue permanentemente dañado y atormentado por estas experiencias, y murió por suicidio a los 15 años”, indica la denuncia.

El abuso comenzó en Roblox y escaló cuando el agresor convenció al menor de desactivar los controles parentales y mudarse a Discord, donde fue presionado para enviar imágenes explícitas. El agresor incluso lo amenazó con difundir ese contenido, lo que llevó a Ethan a un estado de angustia irreversible.

Las apps no eran seguras, afirma la familia

La familia de Ethan afirma que, aunque creían que ambas plataformas eran seguras por su publicidad y controles, en realidad presentaban fallas graves de protección. Roblox, por ejemplo, permite crear cuentas sin verificación de edad, y aunque sus configuraciones impiden a adultos enviar mensajes a menores de 13 años, no impide que los niños se registren con fechas falsas. Discord, por su parte, carece de verificación real de edad y ha sido señalada por la presencia de contenido sexual explícito.

Discord también es acusada de permitir el envió de imágenes sexuales / Redes Sociales
Discord también es acusada de permitir el envió de imágenes sexuales / Redes Sociales

El diseño de las apps convierte a los niños en presas fáciles para pedófilos”, asegura la demanda. Un vocero de Roblox lamentó la pérdida y declaró a NBC News: “Siempre nos esforzamos por mantener los más altos estándares de seguridad”.

Aseguró que la plataforma ha implementado más de 100 nuevas funciones de seguridad este año y cuenta con un equipo de moderación 24/7. Discord, por su parte, reiteró que exige que los usuarios tengan al menos 13 años y que utiliza tecnología avanzada y equipos humanos para detectar contenido dañino.

No es un caso aislado

La firma legal Anapol Weiss, que representa a la madre de Ethan, indicó que esta es la novena demanda relacionada con grooming infantil en estas plataformas. Además, investigaciones previas revelan decenas de casos de explotación infantil vinculados a Discord.

Las plataformas hasta el momento no ha dicho nada al respecto / Redes Sociales
Las plataformas hasta el momento no ha dicho nada al respecto / Redes Sociales

La denuncia también hace eco de la lista “Dirty Dozen” del National Center on Sexual Exploitation, que en 2024 incluyó a Discord y Roblox como plataformas que facilitan el abuso y explotación infantil.

“Estos casos muestran las consecuencias devastadoras cuando plataformas multimillonarias crean entornos que permiten a los depredadores atacar a niños vulnerables”, declaró Alexandra Walsh, abogada del caso. “Estas empresas están ganando miles de millones. Los niños están pagando el precio”.