Meta Reduz Censura de Conteúdos nos EUA e Remove Programa de Verificação de Fatos
Notas da Comunidade será o Novo Foco
A Meta, empresa-mãe do Facebook, Instagram e Threads, anunciou mudanças substanciais na forma como modera o conteúdo em suas plataformas. O programa de verificação de fatos por terceiros será descontinuado nos Estados Unidos, sendo substituído por um sistema de notas da comunidade inspirado no modelo adotado pela plataforma X (antiga Twitter). Além disso, as novas políticas incluem ajustes significativos nas regras de remoção de conteúdo e na abordagem à moderação de tópicos polêmicos.
🚀 Junte-se ao Grupo Oficial do Mobznews no Telegram! 🎮
Fique por dentro das últimas novidades de tecnologia, games e muito mais! Participe da nossa comunidade e não perca nenhuma atualização.
Clique aqui para entrar! 🚀O sistema de notas da comunidade será orientado por contribuições de usuários com diferentes perspectivas, com o objetivo de adicionar contexto às postagens de maneira mais imparcial. Essa abordagem busca corrigir um problema identificado pelo CEO Mark Zuckerberg, que revelou que 10% a 20% das remoções de conteúdo feitas atualmente podem ser erros.
Este novo modelo promete maior transparência e redução de viés, ao exigir uma validação cruzada entre participantes de diferentes visões antes de aplicar contextos adicionais às postagens.
Fim da Verificação de Fatos e Moderação Automatizada
O programa de verificação de fatos, introduzido em 2016, será encerrado nos EUA. No lugar dele, a Meta implementará uma nova tecnologia de varredura automatizada, que terá como foco detectar e remover apenas conteúdo ilegal ou de alta gravidade, como:
- Terrorismo
- Exploração infantil
- Fraudes
- Golpes financeiros
- Conteúdo relacionado a drogas
Postagens sobre temas menos graves, como imigração ou identidade de gênero, não serão mais removidas automaticamente. Esses conteúdos só serão analisados se forem denunciados por outros usuários.
Mudanças no Conteúdo Político
Desde 2021, a Meta vinha restringindo o alcance de tópicos cívicos e políticos em suas plataformas. Agora, a empresa planeja oferecer conteúdo político mais personalizado, com base nas preferências e interações dos usuários, tornando as experiências mais alinhadas aos interesses individuais de cada pessoa.
Realocação de Equipes de Moderação
A Meta está transferindo suas equipes de Confiança e Segurança e Moderação de Conteúdo da Califórnia para o Texas e outras localidades. Essa descentralização visa otimizar operações e possivelmente reduzir custos, enquanto implementa as mudanças em sua política de conteúdo.
O Impacto das Mudanças
Essas atualizações representam a maior reformulação das políticas de moderação da Meta desde 2016. Ao reduzir a remoção de conteúdo e adotar uma abordagem mais colaborativa e personalizada, a empresa pode transformar a experiência de bilhões de usuários. No entanto, críticos podem questionar se essas mudanças abrirão espaço para desinformação ou conteúdo prejudicial, apesar do foco em contextos comunitários.
- Leia também: Meta Lança Ferramentas Avançadas para IA e Metaverso
As alterações começarão a ser implementadas nos próximos meses nos EUA e, dependendo do sucesso, poderão ser expandidas globalmente.
📰 Siga o Mobznews no Google Notícias! 📱
Não perca nenhuma notícia sobre tecnologia, games e tudo o que você ama! Receba nossas atualizações diretamente no Google Notícias e fique sempre informado. Clique aqui e siga agora! 📰
Share this content: