Google Confirmar: Gemini Está Sendo Utilizado por Hackers e Outros Abusos

Google revela que hackers estatais usam Gemini em todas as fases de ciberataques: phishing, malware e mais. Saiba os detalhes do relatório de 2026 e as medidas tomadas!

Imagine uma ferramenta de inteligência artificial poderosa sendo usada não só para criar textos ou imagens, mas para planejar e executar ataques cibernéticos sofisticados. É exatamente isso que o Google confirmou em um relatório recente: hackers, incluindo grupos patrocinados por estados como China, Irã, Coreia do Norte e Rússia, estão abusando do Gemini em todas as fases de ciberataques. Essa notícia, divulgada em fevereiro de 2026, destaca como a IA generativa está acelerando ameaças digitais e tornando-as mais difíceis de detectar.

O Que Revela o Relatório do Google Threat Intelligence Group

O Google Threat Intelligence Group (GTIG), em conjunto com a Mandiant, analisou atividades de grupos de ameaças avançadas (APT) e identificou o uso abusivo do Gemini em operações reais.

Os hackers exploram o modelo para:

  • Reconhecimento e inteligência: Perfilamento de alvos e coleta de dados open-source.
  • Phishing e engenharia social: Criação de iscas convincentes e campanhas personalizadas.
  • Desenvolvimento de código: Geração, depuração e tradução de códigos maliciosos.
  • Testes de vulnerabilidades: Análise de explorações como injeção SQL ou bypass de firewalls.
  • Melhoria de malware: Implementação de novas funcionalidades em ferramentas maliciosas.

Grupos específicos incluem:

  • APT31 e Temp.HEX (China)
  • APT42 (Irã)
  • UNC2970 (Coreia do Norte)

Um exemplo chinês envolveu a simulação de cenários para testar ferramentas contra alvos nos EUA.

Exemplos Concretos de Malware Assistido por IA

Dois casos chamam atenção:

  1. HonestCue → Um framework de malware de 2025 que usa a API do Gemini para gerar código C# em tempo real, compilando e executando payloads na memória.
  2. CoinBait → Um kit de phishing disfarçado de plataforma de criptomoedas, cujo desenvolvimento foi acelerado por ferramentas de IA generativa.

Além disso, hackers praticam “extração de modelo”: fazem milhares de consultas ao Gemini para replicar seu raciocínio e treinar modelos próprios mais baratos – uma tática que reduz custos e acelera o desenvolvimento de IAs maliciosas.

Se você acompanha o avanço dos modelos de IA, como o recente Grok 4, veja nosso post sobre as novidades em Grok 4 e os Novos Modelos de IA: O Que Mudou em 2026.

A Resposta do Google e o Que Esperar

O Google já desativou contas e infraestruturas ligadas a esses abusos e implementou defesas específicas nos classificadores do Gemini para dificultar explorações. A empresa enfatiza que projeta seus sistemas com barreiras de segurança robustas e testa continuamente para melhorar a proteção.

Ainda assim, o relatório alerta: a adoção de IA por criminosos cibernéticos deve continuar crescendo, sem grandes “revoluções” imediatas no malware, mas com aceleração significativa nas operações.

Um Alerta para o Futuro da IA na Segurança Digital

O abuso do Gemini por hackers estatais mostra o lado sombrio da IA generativa: ferramentas acessíveis podem ser armas poderosas nas mãos erradas. Para empresas e usuários, isso reforça a necessidade de vigilância, atualizações constantes e investimentos em cibersegurança. O Google está agindo, mas a batalha entre defesas de IA e criatividade criminosa está só começando. Fique atento – a segurança digital nunca foi tão crucial.