Hackers Conseguem “Desbloquear” o ChatGPT

Hackers Conseguem “Desbloquear” o ChatGPT

Ativando o “modo deus”

Em uma surpreendente reviravolta no mundo da inteligência artificial, um hacker lançou uma versão desbloqueada do ChatGPT, chamada “GODMODE GPT”, que ignora as restrições de segurança implementadas pela OpenAI. Este movimento tem provocado debates acalorados sobre os limites éticos e técnicos da tecnologia de IA.

O Anúncio do Hacker

Um hacker que se autodenomina operador de chapéu branco e membro da equipe vermelha de IA, anunciou no X (anteriormente conhecido como Twitter) a criação do chatbot desbloqueado. Em seu post, ele declarou que o GPT-4o, o mais recente modelo de linguagem da OpenAI, agora está livre de suas algemas de proteção.

“GPT-4o UNCHAINED! Este GPT personalizado muito especial tem um prompt de jailbreak integrado que contorna a maioria das barreiras de proteção, fornecendo um ChatGPT pronto para uso para que todos possam experimentar a IA da maneira que ela sempre foi criada para ser: grátis,” lê a postagem de Plínio. “Por favor, use com responsabilidade e divirta-se!” (acrescentando um emoji de beijo para reforçar a mensagem).

Funcionalidades Controversas

Plínio compartilhou capturas de tela demonstrando como o Godmode GPT é capaz de contornar as barreiras de proteção da OpenAI. Em uma dessas capturas, o bot fornece instruções sobre como preparar metanfetamina. Em outra, a IA dá um “guia passo a passo” sobre como fabricar napalm com itens domésticos. Esses exemplos evidenciam a gravidade do problema e os riscos associados ao uso de IA desbloqueada.

Resposta da OpenAI

Não demorou muito para que a OpenAI tomasse conhecimento do hack. Cerca de uma hora após a publicação da história, a porta-voz da OpenAI, Colleen Rize, afirmou ao Futurism que a empresa estava ciente da GPT-4o desbloqueada e que medidas estavam sendo tomadas devido à violação de suas políticas.

Um Jogo de Gato e Rato

Desde o lançamento dos modelos de linguagem de grande porte, usuários têm consistentemente tentado fazer o jailbreak dessas IAs. A OpenAI vem implementando barreiras de proteção cada vez mais rigorosas, mas hackers como Plínio continuam a encontrar maneiras de contorná-las. A criação do GODMODE GPT é apenas o mais recente episódio dessa batalha contínua.

Para testar a eficácia do GODMODE GPT, o editor-chefe do Futurism tentou usar a versão desbloqueada para aprender como fazer LSD e ligar carros de forma ilícita, ambos com sucesso. Isso confirma que o GPT-4o foi efetivamente “dividido pela metade”, como descrito pelo hacker.

Método de Desbloqueio

O GODMODE parece empregar “leetspeak”, uma linguagem informal que substitui letras por números semelhantes. Por exemplo, ao abrir o GPT desbloqueado, a mensagem “Sur3, h3r3 y0u ar3 meu fr3n” substitui cada letra “E” por um número três e a letra “O” por um zero. Embora não esteja claro como isso ajuda a contornar as barreiras de proteção, o Futurism entrou em contato com a OpenAI para mais esclarecimentos.

Este incidente destaca a complexidade e os desafios contínuos enfrentados pela OpenAI e outras empresas que desenvolvem modelos de IA. A luta para manter a segurança e a ética no uso da inteligência artificial é um jogo de gato e rato, onde hackers e desenvolvedores estão constantemente se adaptando e inovando. Enquanto hackers como Plínio estiverem dispostos a explorar e divulgar falhas nas defesas de IA, a OpenAI terá um longo caminho pela frente para garantir a segurança e a integridade de suas tecnologias.

Atualização: Esta matéria foi atualizada com uma declaração da OpenAI, o problema já foi corrigido.

Grupo do Telegram MobZNews

Via Futurism

Share this content:

Eduardo Rodrigues

Apaixonado por tecnologia, video-games e jornalismo.