Em uma tentativa de evitar que conteúdo sobre suicídio e automutilação se espalhe online, a organização sem fins lucrativos Mental Health Coalition (MHC) anunciou hoje um novo programa, o Thrive, que visa encorajar plataformas online a compartilhar “sinais” de material potencialmente prejudicial.
Thrive, que conta com Meta, Snap e TikTok como membros fundadores, fornecerá maneiras para as plataformas compartilharem hashes — essencialmente impressões digitais únicas — de conteúdo gráfico de suicídio e automutilação e conteúdo que descreva ou incentive desafios virais. Os hashes serão vinculados apenas ao conteúdo, diz o MHC, e não incluirão informações identificáveis sobre contas ou indivíduos.
A Meta contribuiu com a infraestrutura técnica, que, aliás, é a mesma infraestrutura que a empresa forneceu ao programa de segurança infantil Lantern da Tech Coalition em novembro passado.
Os membros do Thrive poderão agregar informações sobre conteúdo de automutilação e receber alertas de conteúdo que levante preocupações ou viole suas políticas, diz o MHC. A partir daí, eles poderão avaliar de forma independente se devem tomar medidas.
O diretor do Thrive, Dan Reidenberg, que também é diretor administrativo do National Council for Suicide Prevention, supervisionará os aspectos operacionais do Thrive, facilitando e monitorando as atividades da organização. As empresas participantes serão responsáveis por carregar, revisar e tomar medidas sobre qualquer conteúdo compartilhado pelo Thrive, e por contribuir para um relatório anual que fornecerá insights sobre o impacto do programa.
“Nós do MHC estamos animados para trabalhar com a Thrive, uma colaboração única das plataformas de mídia social mais influentes que se uniram para abordar o suicídio e o conteúdo de automutilação”, disse Kenneth Cole, fundador do MHC, em uma declaração. “Meta, Snap e TikTok são alguns dos parceiros iniciais a se juntarem à ‘troca’, comprometendo-se a causar um impacto ainda maior e ajudar a salvar vidas.”
Notavelmente ausente do Thrive está o X, a plataforma anteriormente conhecida como Twitter — que não tem exatamente o melhor histórico quando se trata de moderação.
Os dados sugerem que a X tem uma equipe de moderação significativamente menor do que outras plataformas sociais, em parte uma consequência do CEO Elon Musk ter cortado cerca de 80% dos engenheiros da empresa dedicados à confiança e segurança. No início deste ano, a X prometeu estabelecer um novo centro de excelência em confiança e segurança em Austin, Texas. Mas a empresa supostamente acabou contratando muito menos moderadores para o centro do que havia projetado inicialmente.
O Google, dono do YouTube, também não é um membro do Thrive. O YouTube tem estado sob os holofotes por falhas na proteção de usuários contra conteúdo de automutilação. Um estudo do verão de 2024 do Institute for Strategic Dialogue descobriu que o YouTube recomenda prontamente a adolescentes vídeos que incentivam ou normalizam o suicídio.
Entramos em contato com o Google e com o X e atualizaremos este artigo se recebermos uma resposta.
Isso não quer dizer que Meta, Snap e TikTok tenham se saído melhor; centenas de processos, incluindo um recentemente aberto pela cidade de Nova York, acusam os gigantes da tecnologia de contribuir para uma crise de saúde mental. Em uma decisão histórica há dois anos, uma autoridade britânica considerou o Instagram, de propriedade da Meta, culpado pelo suicídio de uma garota de 14 anos depois que ela foi exposta a conteúdo de automutilação na plataforma.
Estudos começaram a mostrar uma ligação causal entre alto uso de mídia social e bem-estar reduzido ou transtornos de humor, principalmente depressão e ansiedade. A maioria sugere que usuários pesados de mídia social têm muito mais probabilidade de ficar deprimidos do que usuários leves e de se verem de forma nada lisonjeira — particularmente sua aparência física.