Instagram eliminará las referencias a contenido no gráfico relacionado con personas que se lastiman a sí mismas en sus búsquedas y funciones de recomendación
Instagram anunció medidas drásticas en su política de imágenes de autolesión luego de que una adolescente británica que seguía cuentas en las que se trataban el suicidio se quitara la vida.
El anuncio de la red social propiedad de Facebook se produjo tras una reunión celebrada el jueves entre su jefe mundial, Adam Mosseri, y el secretario de salud británico, Matt Hancock después de que la adolescente británica Molly Russell se suicidó en su habitación en 2017.
El historial de las redes sociales de la niña de 14 años reveló que siguió cuentas sobre depresión y suicidio; y el caso provocó un vigoroso debate en Reino Unido sobre el control de los padres y la regulación estatal del uso que hacen los niños de las redes sociales.
“Es alentador ver que ahora se están tomando pasos decisivos para tratar de proteger a los niños del contenido perturbador en Instagram”, dijo el padre de Molly, Ian Russell. “Ahora es el momento de que otras plataformas tomen medidas”.
What happened to Molly Russell is every parents’ modern nightmare. Glad @instagram have committed to me they will now take down graphic self-harm & suicide content. I’ll keep working to make the internet safe for all
— Matt Hancock (@MattHancock) 7 de febrero de 2019
Los padres de Molly no culparon directamente a Instagram por la pérdida de su hija, pero se refirieron al fácil acceso a publicaciones de este tipo como un factor contribuyente.
Mosseri dijo que los cambios siguieron a una revisión exhaustiva que involucró a expertos y académicos en temas de salud mental de niños. “Me uní a la compañía hace más de 10 años y nos centramos principalmente en todo lo bueno que resultó de conectar a las personas”.
“Pero si soy honesto, no nos enfocamos en los riesgos de conectar a tanta gente.Esa es una lección que hemos aprendido en los últimos años”.
Instagram nunca permitió publicaciones que promuevan o fomenten el suicidio o la autolesión.
But as we’ve seen with the heart-wrenching stories of Molly Russell & others, the potential for harm, especially with the mental health of children, is all too prevalent (3/8)
— Matt Hancock (@MattHancock) 8 de febrero de 2019
Pero ahora eliminará las referencias a contenido no gráfico relacionado con personas que se lastiman a sí mismas en sus búsquedas y funciones de recomendación. También prohibirá los hashtags, palabras con un “#” que marcan un tema de tendencia, relacionados con la autolesión.
Las medidas están destinadas a hacer que esas imágenes sean más difíciles de encontrar para los adolescentes deprimidos que puedan tener tendencias suicidas.
“No estamos eliminando este tipo de contenido de Instagram por completo”, dijo Mosseri. “No queremos estigmatizar o aislar a las personas que puedan estar en apuros y publicar contenido relacionado con autolesiones como un grito de ayuda”.
Instagram también se está juntando con asesores para ver cómo pueden interactuar con aquellos adolescentes que la plataforma cree que necesitan ayuda.
But as we have seen this week, we’re not powerless in this digital age. We have the power to act, to ensure the right online protections are in place, especially for those most vulnerable. People made this technology and it must be hewn to the benefit of humanity (7/8)
— Matt Hancock (@MattHancock) 8 de febrero de 2019
Contenido relacionado
WhatsApp limita reenvío de mensajes para combatir las noticias falsas