Meta avalia recomendação para tornar políticas de nudez do Instagram e Facebook mais inclusivas
Gigante tecnológica havia apagado duas publicações do Instagram que mostravam pessoas transgênero e
A Meta, empresa controladora das redes sociais Facebook e Instagram, acatou um pedido de seu conselho de supervisão para tornar suas políticas de nudez adulta mais inclusivas, disse um porta-voz nesta quinta-feira (19).
A gigante tecnológica havia apagado duas publicações do Instagram que mostravam pessoas transgênero e não binárias com o peito descoberto, uma decisão que o conselho pediu para ser revista por prejudicar a capacidade de expressão tanto das mulheres como de pessoas transmasculinas e não binárias.
Um porta-voz da Meta disse à AFP que a empresa acatou o pedido do conselho e revisa particularmente a política de proibir mulheres de mostrarem seus seios. Também confirmou que as publicações apagadas foram restabelecidas. "Avaliamos permanentemente nossas políticas para ajudar nossas plataformas a serem mais seguras para todos", disse o porta-voz.
O "supremo tribunal" da gigante das redes sociais decidiu recentemente que a Meta não deveria ter removido as fotos postadas por um casal que exibia os seios, com os mamilos cobertos, com uma legenda falando sobre a saúde das pessoas transgênero e explicando que um deles em breve passaria por uma cirurgia de redesignação sexual, a retirada das mamas. O casal estava arrecadando fundos para a intervenção.
Leia Também
• Meta diz que vai remover de suas plataformas conteúdos que apoiam ou exaltam atos antidemocráticos
• Meta, matriz do Facebook, anuncia 11 mil demissões
"A remoção dessas imagens não é consistente com os valores da Meta e suas responsabilidades de direitos humanos", afirmou o conselho de supervisão na terça-feira. "A política de nudez adulta da empresa restringe mais fortemente a expressão de mulheres, pessoas transgênero e pessoas não binárias em suas plataformas", acrescentou.
O conselho é composto por 20 membros internacionais, jornalistas, advogados, defensores dos direitos humanos e ex-líderes políticos. Foi criado em 2020 por proposta do fundador Mark Zuckerberg e é responsável por avaliar as políticas de moderação de conteúdo do grupo californiano.
As normas da Meta proíbem imagens que contenham mamilos femininos, exceto em determinados contextos de saúde, como amamentação e cirurgias de redesignação sexual. "Esse regulamento se baseia em uma visão binária dos gêneros", apontou o conselho.