Google Anuncia Programa de Recompensas de US$ 12 Milhões para Hackers Enfrentarem Ataques de IA Generativa
Você versus uma Inteligência Artificial Hacker
O Google está tomando medidas audaciosas para fortalecer a segurança de seus sistemas de inteligência artificial. A empresa está oferecendo recompensas substanciais, totalizando US$ 12 milhões, para hackers e pesquisadores de segurança que identificarem possíveis ameaças à IA generativa. Anteriormente, o Google contava com seu “AI Red Team” interno para lidar com essas questões, mas agora está ampliando sua abordagem para envolver hackers externos.
O Programa de Recompensas de Vulnerabilidade (VRP) do Google define diretrizes claras para relatórios de segurança elegíveis que podem resultar em recompensas financeiras. Os hackers e pesquisadores podem submeter seus relatórios no site Bug Hunter e, se o problema for validado, receberão uma recompensa.
É muito dinheiro!
No ano passado, o Google pagou um total de US$ 12 milhões em recompensas a profissionais de segurança por identificação de vulnerabilidades. A empresa também participou recentemente da Defcon, um dos maiores eventos públicos de IA generativa até o momento, onde se reuniu com outros especialistas do setor e pesquisadores de segurança.
“Estamos expandindo nosso trabalho de segurança de código aberto para tornar as informações sobre a segurança da cadeia de suprimentos de IA universalmente detectáveis e verificáveis. Acreditamos que a expansão do VRP incentivará a pesquisa em torno da segurança e proteção da IA e trará à tona possíveis problemas que, no final das contas, tornarão a IA mais segura para todos”, disse um porta-voz do Google.
Até agora, o Google confiava em seu “AI Red Team” para pesquisar ameaças de IA, identificar falhas e desenvolver defesas. No entanto, com as novas diretrizes, hackers externos podem simular ataques para detectar falhas nos sistemas e serviços de IA do Google. Essa iniciativa segue a recente ordem executiva do presidente Biden sobre inteligência artificial, que exige uma avaliação abrangente dos modelos de IA antes de serem utilizados pelo governo.
Leia também:
O Google está demonstrando seu compromisso com a segurança da IA, incentivando a colaboração de especialistas externos e recompensando seus esforços para tornar a IA mais resistente contra possíveis ameaças. Este movimento representa um passo significativo no fortalecimento da segurança da inteligência artificial em um mundo cada vez mais dependente dessa tecnologia.
Fonte: Engadget | Forbes | Google | cnbc
Share this content: