Ozempic, transtornos alimentares e jejum: TikTok tenta controlar postagens sobre perda de peso
Empresa disse que trabalhará para remover conteúdo e trabalhar algoritmo do feed "For You"
Emma Lembke não sabia o que era um algoritmo quando começou a usar as redes sociais. A menina de 12 anos ficou emocionada quando seus pais lhe deram permissão para entrar no Instagram. Ela rapidamente seguiu todos os tipos de contas – de Kim Kardashian a Olive Garden, disse ela – e logo passou de cinco a seis horas por dia no aplicativo. Então, um dia, ela pesquisou “exercícios abdominais” e seu feed mudou. Ela começou a ver receitas de 200 calorias, postagens pró-anorexia e rotinas de exercícios que “nenhuma criança de 12 anos deveria fazer no quarto”, disse ela.
Leia também
• Chatbot de dona do TikTok se torna o mais usado na China e acirra corrida por IA
• Instagram sinaliza como 'fake news' postagem de Regina Duarte sobre o RS
• "Blockout": Famosos neutros sobre guerra em Gaza são alvo de boicote em campanha no TikTok
Lembke, agora com 21 anos, testemunhou perante o Comitê Judiciário do Senado nos Estados Unidos, em fevereiro de 2023, sobre como as redes sociais a levaram a distúrbios alimentares e o que ela e outros defensores consideram uma extrema necessidade de uma regulamentação mais forte para proteger os utilizadores mais jovens das redes sociais.
As plataformas de mídia social prometeram tomar mais medidas. Na sexta-feira, o TikTok promulgou o que alguns especialistas chamaram de uma das políticas mais bem definidas por uma empresa de mídia social sobre postagens de peso e dieta. As diretrizes atualizadas da empresa, que ocorrem no momento em que o TikTok enfrenta uma possível proibição nos Estados Unidos, incluem novas proteções em postagens que mostram “comportamentos de controle de peso potencialmente prejudiciais” e exercícios excessivos
O TikTok disse que trabalhará para garantir que a página “Para você”, que serve como principal feed de conteúdo do TikTok e é conduzida por um algoritmo que atende aos interesses do usuário, não mostre mais vídeos que promovam “jejum intermitente estendido”, exercícios projetados para “perda de peso rápida e significativa” ou medicamentos, ou suplementos que promovam ganho muscular. As novas regulamentações também visam reprimir postagens de influenciadores e outros usuários que promovam produtos usados para perda de peso ou para suprimir o apetite, como medicamentos como o Ozempic. Eles também visam restringir o conteúdo que promove o uso de esteroides anabolizantes.
De acordo com a nova política, os modelos de aprendizado de máquina tentarão sinalizar e remover conteúdo considerado potencialmente perigoso; uma equipe de moderação humana analisará essas postagens para ver se elas precisam permanecer fora do feed For You, se devem ser removidas dos feeds com restrição de idade ou se devem ser totalmente removidas da plataforma, disse Tara Wadhwa, diretora de política do TikTok nos Estados Unidos.
A eliminação de TikToks problemáticos do feed principal visa, em parte, “interromper padrões de conteúdo repetitivos”, afirmam as novas diretrizes. Wadhwa afirma que a empresa deseja garantir que os usuários não sejam expostos a conteúdos de dieta e perda de peso “em ordem sequencial ou repetidamente”.
Especialistas disseram que a nova política oferece mais especificidade sobre os tipos de conteúdo que serão removidos do que as diretrizes estabelecidas por outras plataformas de mídia social, como Facebook e YouTube, que também afirmaram usar moderação baseada em aprendizado humano e de máquina para manter conteúdo sobre transtornos alimentares fora das plataformas.
Mas alguns também não acreditam que as novas proteções do TikTok serão capazes de identificar e reduzir com segurança postagens potencialmente prejudiciais. S. Bryn Austin, professor de ciências sociais e comportamentais da Escola de Saúde Pública Harvard TH Chan e especialista em transtornos alimentares, disse que essas regulamentações podem ser pouco mais do que um band-aid em um algoritmo que está se comportando exatamente como projetado.
“O feed For You ainda foi projetado para aumentar a receita e aumentar o engajamento”, disse o professor.
Também pode ser difícil examinar o impacto da nova política, acrescentou. Os pesquisadores reclamam há muito tempo que plataformas como o TikTok dificultam o estudo do que os usuários estão vendo, como funcionam seus algoritmos ou como as mudanças nas políticas afetam os feeds de conteúdo ou o comportamento do usuário.
Em plataformas orientadas por algoritmos, o caminho desde o conteúdo de bem-estar e saúde até às publicações com potencial para encorajar a alimentação desordenada pode ser notavelmente curto: num estudo de 2022 conduzido pelo Center for Countering Digital Hate, os investigadores criaram perfis para se passarem por usuários de 13 anos e descobriram que essas contas receberam conteúdo que os pesquisadores consideraram relacionado a automutilação e transtornos alimentares poucos minutos após a inscrição. Os pesquisadores também descobriram que as hashtags do TikTok vinculadas ao que classificaram como conteúdo de transtorno alimentar tiveram mais de 13,2 bilhões de visualizações.
Mais de 29 milhões de americanos sofrem de um transtorno alimentar clinicamente significativo durante a vida, e pessoas de qualquer idade, raça, sexo ou tipo físico podem desenvolver transtornos alimentares, de acordo com a Aliança Nacional para Distúrbios Alimentares. Para as pessoas que estão especialmente em risco de desenvolver esses problemas, ver uma alimentação inundada com imagem corporal ou conteúdo de dieta pode ser “um gatilho proverbial” que pode desencadear um comportamento alimentar desordenado, disse Johanna Kandel, diretora executiva do National Aliança para Transtornos Alimentares.
Um desafio para as plataformas de redes sociais tem sido como e onde traçar a linha entre as publicações sobre saúde e as publicações que podem ser potencialmente prejudiciais. O que pode ser perigoso para alguns usuários pode não afetar outros.
“Não se trata de traçar uma linha na areia e dizer 'isto é bom para as pessoas verem, este conteúdo não é'”, disse Kandel, acrescentando: “Não acho que seja tão direto e seco. Terá que haver maleabilidade.”