Google Admite Falsificação em Demonstração do Gemini AI

Não é a primeira vez que uma IA causa uma gafe deste tipo
O Google recentemente lançou seu modelo de IA generativa, o Gemini, afirmando superar o GPT-4 da OpenAI. No entanto, uma demonstração inicialmente impressionante foi posteriormente revelada como falsificada. O vídeo, que mostrava interações em tempo real do Gemini com desenhos, foi admitido pelo Google como editado.
A voz do Gemini não correspondia às imagens em tempo real; em vez disso, eram imagens estáticas separadas com instruções de voz feitas por texto, não pela pessoa ouvida no vídeo. O Google afirmou que o vídeo foi criado para “inspirar os desenvolvedores”, mas a revelação levantou dúvidas sobre a confiabilidade da demonstração.
A pontuação do Gemini no Massive Multitask Language Understanding (MMLU) foi destacada como uma melhoria em relação ao GPT-4. No entanto, a falsificação levanta questões sobre a transparência do Google na competição da IA generativa.
Com o GPT-5 da OpenAI no horizonte, a pressão para reafirmar a posição de liderança pode ter levado o Google a exageros, comprometendo sua credibilidade no processo. A rápida admissão do Google e a explicação do vídeo como uma “brevidade” para a demonstração podem impactar a confiança na próxima geração de modelos de IA da empresa.
Nota: A resposta do Bard AI do Google à confusão está incorporada no vídeo.
Share this content:








