Meta (Facebook, Instagram e WhatsApp), Snap e TikTok anunciaram a Thrive, uma iniciativa conjunta que permitirá a moderação coordenada com objetivo declarado de impedir a disseminação de conteúdo gráfico ou encorajador relacionado a automutilação e suicídio.
Thrive permitirá que essas mídias sociais compartilhem “sinais” entre si para alertar umas às outras sobre conteúdo que viola as políticas de suas respectivas plataformas. Essa colaboração é construída em parceria com a organização sem fins lucrativos da área Mental Health Coalition (Coalizão da Saúde Mental).
A Meta, que fornece a infraestrutura técnica por trás do Thrive, afirma que o sistema utiliza a mesma tecnologia de compartilhamento de sinais multiplataforma usada no programa Lantern, projetado para combater o abuso infantil online. Assim, as empresas participantes poderão compartilhar hashes correspondentes a mídia considerada violadora, sinalizando-a umas às outras.
Embora as principais plataformas já tenham medidas para dificultar acesso a esse tipo de conteúdo em suas redes, a Meta diz que reconhece a importância de permitir que as pessoas discutam suas histórias de saúde mental, suicídio e automutilação, desde que não as promovam ou forneçam descrições gráficas.
De acordo com os dados da Meta, a empresa lida com milhões de peças de conteúdo relacionados à esses temas a cada trimestre. No último trimestre, cerca de 25 mil postagens teriam sido restauradas, na maioria das vezes após um usuário apelar após derrubada do conteúdo.