Tragedia Familiar y Redes Sociales: La Batalla Contra TikTok en Francia

Una madre enfrenta a la gigante tecnológica tras el suicidio de su hija, alegando la responsabilidad del algoritmo en la promoción de contenidos dañinos.

Un profundo impacto familiar

El 15 de septiembre de 2021, la vida de Stéphanie Mistre cambió para siempre. Encontró a su hija Marie, de 15 años, sin vida en su dormitorio, víctima de un aparente suicidio. La consternación pronto se transformó en una búsqueda de respuestas, que la llevó a explorar el contenido que su hija había consumido en TikTok, la famosa plataforma de videos cortos. Lo que descubrió no solo la devastó, sino que la llevó a iniciar una batalla legal contra la empresa, acusándola de exponer a los menores a contenido nocivo.

El papel del algoritmo

Mistre argumenta que el algoritmo de TikTok jugó un papel crítico en el fatal desenlace. Según sus hallazgos, la plataforma promovía contenido que normalizaba la depresión, el autolesionismo e incluso instrucciones para el suicidio. “Era un lavado de cerebro”, señala. Además, asegura que el algoritmo de TikTok atrapó a su hija en un círculo de contenido dañino, aprovechándose de su vulnerabilidad emocional.

Las investigaciones en psicología respaldan parcialmente estas preocupaciones. Según Gregoire Borst, profesor de psicología y neurociencia cognitiva en la Universidad Paris-Cité, mientras que la mayoría de los adolescentes usan las redes sociales sin problemas significativos, los riesgos reales afectan principalmente a aquellos ya vulnerables debido al acoso, problemas familiares u otros factores. Sin embargo, Borst advierte que no existen pruebas sólidas que vinculen directamente el uso de redes sociales con daños psicológicos, y afirma que TikTok no es necesariamente más riesgoso que plataformas como Instagram o Snapchat.

Acción legal en marcha

Stéphanie Mistre, junto con otras seis familias, ha interpuesto una demanda contra TikTok Francia. Dos de estas familias también han perdido hijos en circunstancias similares. La abogada Laure Boutron-Marmion, quien representa a estas familias, sostiene que TikTok no puede eximirse de responsabilidad argumentando que ellos no crean el contenido, ya que la configuración de su algoritmo prioriza material que retiene a los usuarios, incluso si esto incluye contenido dañino. “La estrategia de la plataforma es insidiosa, capitalizando sobre usuarios vulnerables para su lucro”, explica Boutron-Marmion.

Un punto clave en la demanda es la comparación con Douyin, la versión china de TikTok, que incluye un “modo juvenil” obligatorio para menores de 14 años, limitando el tiempo de pantalla a 40 minutos diarios y controlando estrictamente el contenido que se muestra. Según Laure, esto demuestra que TikTok puede implementar medidas de seguridad cuando lo desee, pero ha optado por no hacerlo en Europa.

Regulaciones y contexto global

La demanda contra TikTok no es un caso aislado. Durante los últimos años, padres y grupos sociales han presentado acciones legales contra plataformas como Instagram, Snapchat y YouTube en los Estados Unidos, alegando que el diseño adictivo de estas aplicaciones contribuye a daños psicológicos y tasas de suicidio en adolescentes. Por ejemplo, un caso en Los Ángeles incluye a tres adolescentes que terminaron quitándose la vida tras ser expuestos a contenido dañino en redes sociales. En diciembre de 2024, Australia aprobó una legislación innovadora que prohíbe las cuentas de redes sociales para menores de 16 años.

En Francia, un informe encargado por el presidente Emmanuel Macron sugirió medidas radicales, como prohibir características adictivas en aplicaciones y limitar el acceso a redes sociales para menores de 15 años. No obstante, estas recomendaciones aún no se han adoptado oficialmente.

El fenómeno del “algospeak”

Una de las razones por las que las plataformas tienen dificultades para moderar contenido dañino es el fenómeno conocido como “algospeak”. Este término se refiere al uso de lenguaje o símbolos codificados que evaden la detección de los algoritmos. Un estudio realizado en 2022 por el Centro para Contrarrestar el Odio Digital reveló que un usuario simulado de 13 años en TikTok fue expuesto a contenido relacionado con autolesiones en menos de tres minutos, y a material sobre trastornos alimenticios en ocho minutos.

“El algoritmo sabe que este tipo de contenido es altamente adictivo para jóvenes vulnerables”, señala Imran Ahmed, director del centro. Aunque las plataformas afirman esforzarse en moderar contenidos peligrosos, investigaciones externas sugieren que sus esfuerzos son insuficientes.

Un llamado a la acción

En la habitación de su hija, cuyas decoraciones no han cambiado desde su muerte, Stéphanie Mistre encuentra su fuerza para luchar. Con la mirada puesta en el futuro, espera que su caso sirva como advertencia para otros padres y como presión para que las grandes tecnológicas asuman su responsabilidad. “En memoria de Marie, lucharé mientras tenga fuerzas”, promete. “Los padres necesitan conocer los riesgos y exigir responsabilidad.”

Este artículo fue redactado con información de Associated Press