Twitter inicia testes de funcionalidade para "revisão" de comentários maldosos
Os testes da nova função se iniciam nesta quinta para alguns usuários que utilizam a plataforma com as configurações de idioma em português.
A nova funcionalidade divulgada nesta quinta-feira (3) pelo Twitter tem um objetivo bem simples: fazer os usuários reconsiderarem a publicação de um comentário no qual o aplicativo tenha identificado palavras consideradas prejudiciais.
De acordo com o comunicado divulgado pela empresa, os testes da nova função se iniciam nesta quinta mesmo para alguns usuários que utilizam a plataforma com as configurações de idioma em português.
No calor do momento, você pode dizer coisas das quais se arrependerá depois.
— Twitter Seguro (@TwitterSeguroBR) February 3, 2022
Para ter a chance de repensar uma resposta com linguagem potencialmente prejudicial, algumas pessoas poderão ver um aviso sugerindo a revisão de um comentário antes da publicação. pic.twitter.com/ZlWbpDnL9F
Segundo o estudo feito pelo Twitter em parceria com universidades dos Estados Unidos, como a Yale, o desenvolvimento da nova ferramenta foi baseado nos resultados que demonstram redução de 30% no número de comentários de usuários participantes da pesquisa com conteúdo considerado ofensivo pela plataforma.
Leia Também
• Após pressão de usuários, Twitter anuncia novo recurso para combater fake news no Brasil
• Justiça austríaca condena Facebook por conteúdo de ódio
• Lenovo, Amazon, Twitter e Meta desistem de participar da CES 2022 por conta da ômicron
O Twitter não é o único a adotar o modo de intervenção antes da publicação. Segundo o estudo, outras redes como TikTok, YoutTube e Instagram já utilizam a mesma metodologia de análise antes do compartilhamento.
A empresa ainda não divulgou quando a nova funcionalidade estará disponível para todos os usuários.