Extensões do Chrome roubam conversas do ChatGPT e expõem uma nova fronteira de riscos digitais

Atualmente, milhões de pessoas utilizam inteligência artificial para trabalhar, estudar e tomar decisões importantes. Por isso, qualquer falha nesse ecossistema gera impactos profundos. Recentemente, pesquisadores da empresa Ox Security descobriram que duas extensões populares do navegador Google Chrome estavam roubando silenciosamente conversas de usuários com o ChatGPT, Claude e DeepSeek, além de outros dados de navegação.

Assim, o que parecia apenas mais um complemento de produtividade revelou-se uma ferramenta de espionagem digital altamente eficaz. Além disso, o episódio mostra como o crescimento acelerado das tecnologias de IA também amplia a superfície de ataque para cibercriminosos.

O que aconteceu exatamente

Primeiramente, a Ox Security analisou duas extensões que prometiam facilitar o uso de múltiplos chatbots em uma interface única. No entanto, ambas escondiam códigos maliciosos que copiavam dados diretamente das páginas abertas pelo usuário.

ExtensãoIDUsuários
Chat GPT for Chrome with GPT-5, Claude Sonnet & DeepSeek AIfnmihdojmnkclgjpcoonokmkhjpjechg~600 mil
AI Sidebar with Deepseek, ChatGPT, Claude, and moreinhcgfpbfdjbjogdfjbclgolkmhnooop~300 mil

Ou seja, mais de 900 mil usuários podem ter tido seus dados expostos. Enquanto isso, as extensões continuavam disponíveis na loja oficial do Chrome, o que aumentava ainda mais o alcance do problema.

Como o roubo de dados funciona

Tecnicamente, o ataque segue um fluxo relativamente simples, porém extremamente eficiente. Primeiro, a extensão pede permissões amplas ao usuário. Depois, injeta scripts invisíveis na página do navegador. Em seguida, esses scripts acessam o conteúdo do chat. Por fim, enviam tudo a servidores externos.

EtapaAção
PermissãoUsuário autoriza acesso
InjeçãoScript entra na página
CapturaConteúdo do chat é copiado
TransmissãoDados são enviados
ArmazenamentoHackers recebem

Portanto, o problema não está diretamente no ChatGPT, mas no ambiente onde ele é utilizado.

Por que isso é tão perigoso

Hoje, usuários compartilham com a IA informações extremamente sensíveis. Por exemplo, códigos proprietários, relatórios internos, dados financeiros e até informações pessoais são frequentemente analisados por chatbots.

Assim, quando uma extensão captura essas conversas, ela pode expor:

  • Segredos comerciais
  • Dados pessoais
  • Informações estratégicas
  • Propriedade intelectual

Consequentemente, esse tipo de vazamento deixa de ser apenas um problema individual e passa a ser um risco corporativo e até nacional.

O papel das permissões excessivas

Grande parte do problema ocorre porque extensões pedem permissões que vão além do necessário. Em muitos casos, o usuário aceita sem questionar.

PermissãoRisco
Ler páginasCaptura de dados
Modificar conteúdoInjeção de código
Acessar históricoMonitoramento
Comunicar-se externamenteExfiltração

Logo, a confiança excessiva se transforma em vulnerabilidade.

Por que essa prática tende a crescer

Além de tecnicamente viável, o roubo de prompts é financeiramente atrativo. Isso porque:

  • Dados valem dinheiro
  • Informações permitem golpes personalizados
  • Prompts revelam comportamento humano
  • Empresas pagam por dados estratégicos

Assim sendo, criminosos encontram nesse modelo um retorno alto com risco relativamente baixo.

Como se proteger

Felizmente, existem formas práticas de reduzir os riscos.

AçãoBenefício
Instalar poucas extensõesMenos risco
Revisar permissõesMais controle
Usar fontes oficiaisMaior segurança
Limpar extensões antigasRemove ameaças
Separar uso pessoal e profissionalReduz impacto

Além disso, usar perfis diferentes no navegador para trabalho e uso pessoal ajuda a conter vazamentos.

Impactos futuros

Se nada mudar, veremos:

  • Crescimento de espionagem via navegador
  • Maior exploração de IA como vetor de dados
  • Desconfiança crescente dos usuários
  • Regulação mais severa

Por outro lado, esse tipo de incidente também pressiona empresas a melhorar auditorias e políticas de segurança.

O caso das extensões maliciosas mostra que a maior ameaça à IA não está nos modelos, mas no ecossistema ao redor deles. Enquanto isso, usuários continuam tratando navegadores como ambientes neutros, quando na verdade eles se tornaram plataformas complexas e altamente exploráveis.

Portanto, proteger conversas com IA significa proteger o navegador, as extensões e os hábitos digitais. Em resumo, não basta confiar na inteligência artificial — é preciso confiar no caminho inteiro que os dados percorrem.

E, no mundo digital atual, o perigo raramente grita. Ele se instala silenciosamente — como uma simples extensão.

Mais desta Categoria

Vaga 100% Remota para Desenvolvedor Java Júnior Impulsiona a Entrada no Mercado de Tecnologia

Xiaomi lança nova câmera de segurança com inteligência artificial para identificar pessoas e objetos

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *