Pesquisa Revela que Chatbots de IA, como o ChatGPT-4, Ainda Apresentam Preconceito Racial Mesmo Após Treinamento Anti-Racismo

Pesquisa Revela que Chatbots de IA, como o ChatGPT-4, Ainda Apresentam Preconceito Racial Mesmo Após Treinamento Anti-Racismo

Não é possível mudar?

Uma recente pesquisa realizada por pesquisadores destaca que chatbots de IA baseados em grandes modelos de linguagem, incluindo o ChatGPT-4 da OpenAI, continuam a apresentar respostas racialmente preconceituosas, mesmo após passarem por treinamento anti-racismo. Este achado levanta preocupações sobre a eficácia das intervenções de formação em segurança de IA.

Mobznews no Telegram

🚀 Junte-se ao Grupo Oficial do Mobznews no Telegram! 🎮

Fique por dentro das últimas novidades de tecnologia, games e muito mais! Participe da nossa comunidade e não perca nenhuma atualização.

Clique aqui para entrar! 🚀

Os pesquisadores conduziram testes utilizando diversos modelos de linguagem, como o ChatGPT-4 e o GPT-3.5 da OpenAI, e descobriram que esses chatbots ainda mostram preconceito racial ao lidar com texto em dialetos afro-americanos. Mesmo após treinamento específico para evitar preconceitos raciais, os modelos ainda produziram respostas que revelaram preconceito, inclusive recomendando sentenças de morte com maior probabilidade quando confrontados com dialetos afro-americanos.

Pesquisa Revela que Chatbots de IA, como o ChatGPT-4, Ainda Apresentam Preconceito Racial Mesmo Após Treinamento Anti-Racismo
Créditos pela imagem: New Scientist

O fenômeno, chamado de “preconceito encoberto”, também se manifestou em recomendações de emprego, associando afro-americanos a carreiras menos propensas a exigir diplomas ou sugerindo desemprego ao grupo, comparado com falantes do inglês americano padrão.

Além disso, o estudo revelou que modelos de linguagem maiores tendem a apresentar mais preconceitos subjacentes. Essas descobertas geram preocupações, especialmente no contexto de triagem e análise de candidaturas a empregos usando tecnologias generativas de IA.

Os pesquisadores concluíram que a pesquisa destaca a necessidade de uma abordagem cuidadosa e verificações rigorosas antes de disponibilizar publicamente chatbots baseados em IA, enfatizando que as intervenções de treinamento de segurança humana podem não ser suficientes para erradicar preconceitos em níveis mais profundos dos modelos de linguagem.

Fonte: New Scientist

📰 Siga o Mobznews no Google Notícias! 📱

Não perca nenhuma notícia sobre tecnologia, games e tudo o que você ama! Receba nossas atualizações diretamente no Google Notícias e fique sempre informado. Clique aqui e siga agora! 📰

Share this content:

Eduardo Rodrigues

Apaixonado por tecnologia, video-games e jornalismo.