Meta, Snapchat y TikTok lanzan la nueva iniciativa de salud mental Thrive, ¡y era hora!

Meta, Snapchat y TikTok finalmente están uniendo fuerzas para hacer algo sobre los efectos nocivos de algunos de los contenidos alojados en sus plataformas, y ya era hora.

En asociación con la Coalición de Salud Mental, las tres marcas están utilizando un programa llamado Thrive que está diseñado para identificar y compartir información de manera segura sobre contenido nocivo, centrándose en contenido relacionado con el suicidio y el autolesionismo.

Una publicación de blog de Meta dice: “Al igual que muchos otros tipos de contenido potencialmente problemático, el contenido de suicidio y autolesiones no se limita a ninguna plataforma en particular… Por eso trabajamos con la Coalición de Salud Mental para establecer Thrive, el primer programa de intercambio de señales para compartir señales sobre contenido de suicidio y autolesiones violatorio.

“A través de Thrive, las empresas tecnológicas participantes podrán compartir señales sobre contenido violatorio de suicidio o autolesiones para que otras empresas puedan investigar y tomar medidas si se está compartiendo el mismo o un contenido similar en sus plataformas. Meta está proporcionando la infraestructura técnica que respalda a Thrive… lo que permite compartir señales de forma segura.”

Cuando una empresa participante como Meta descubre contenido nocivo en su aplicación, comparte hashes (códigos anonimizados relacionados con piezas de contenido relacionadas con el autolesionismo o el suicidio) con otras empresas tecnológicas, para que puedan examinar sus propias bases de datos en busca del mismo contenido, ya que tiende a propagarse entre plataformas.

 Análisis: Un buen comienzo

(Crédito de la imagen: Getty Images)

Mientras haya plataformas que dependan de usuarios que suban su propio contenido, habrá aquellos que violen regulaciones y difundan mensajes nocivos en línea. Esto podría ser en forma de estafadores que intentan vender cursos falsos, contenido inapropiado en canales dirigidos a niños, y contenido relacionado con el suicidio o el autolesionismo. Las cuentas que publican este tipo de contenido suelen ser muy buenos para evadir las reglas y pasar desapercibidos para llegar a su audiencia objetivo; el contenido a menudo se elimina demasiado tarde.

LEAR  IoT y control de la calidad del aire: salud y medio ambiente

Es bueno ver a las plataformas de redes sociales, que utilizan algoritmos completos y arquitectura tipo casino para mantener a sus usuarios adictos y servir automáticamente contenido con el que interactuarán, que asuman alguna responsabilidad y trabajen juntas. Este tipo de cooperación ética entre las aplicaciones de redes sociales más populares es muy necesaria. Sin embargo, esto debería ser solo el primer paso en el camino hacia el éxito.

El problema con el contenido generado por el usuario es que necesita ser vigilado constantemente. La inteligencia artificial ciertamente puede ayudar a identificar automáticamente contenido nocivo, pero aún algunos se colarán; gran parte de este contenido es sutil, con subtexto que algún humano en la cadena tendrá que ver y señalar como nocivo. Ciertamente estaré atento a Meta, TikTok y otras compañías en lo que respecta a sus políticas en evolución sobre contenido nocivo.

Te podría interesar