Atualmente, milhões de pessoas utilizam inteligência artificial para trabalhar, estudar e tomar decisões importantes. Por isso, qualquer falha nesse ecossistema gera impactos profundos. Recentemente, pesquisadores da empresa Ox Security descobriram que duas extensões populares do navegador Google Chrome estavam roubando silenciosamente conversas de usuários com o ChatGPT, Claude e DeepSeek, além de outros dados de navegação.
Assim, o que parecia apenas mais um complemento de produtividade revelou-se uma ferramenta de espionagem digital altamente eficaz. Além disso, o episódio mostra como o crescimento acelerado das tecnologias de IA também amplia a superfície de ataque para cibercriminosos.
O que aconteceu exatamente
Primeiramente, a Ox Security analisou duas extensões que prometiam facilitar o uso de múltiplos chatbots em uma interface única. No entanto, ambas escondiam códigos maliciosos que copiavam dados diretamente das páginas abertas pelo usuário.
| Extensão | ID | Usuários |
|---|---|---|
| Chat GPT for Chrome with GPT-5, Claude Sonnet & DeepSeek AI | fnmihdojmnkclgjpcoonokmkhjpjechg | ~600 mil |
| AI Sidebar with Deepseek, ChatGPT, Claude, and more | inhcgfpbfdjbjogdfjbclgolkmhnooop | ~300 mil |
Ou seja, mais de 900 mil usuários podem ter tido seus dados expostos. Enquanto isso, as extensões continuavam disponíveis na loja oficial do Chrome, o que aumentava ainda mais o alcance do problema.
Como o roubo de dados funciona
Tecnicamente, o ataque segue um fluxo relativamente simples, porém extremamente eficiente. Primeiro, a extensão pede permissões amplas ao usuário. Depois, injeta scripts invisíveis na página do navegador. Em seguida, esses scripts acessam o conteúdo do chat. Por fim, enviam tudo a servidores externos.
| Etapa | Ação |
|---|---|
| Permissão | Usuário autoriza acesso |
| Injeção | Script entra na página |
| Captura | Conteúdo do chat é copiado |
| Transmissão | Dados são enviados |
| Armazenamento | Hackers recebem |
Portanto, o problema não está diretamente no ChatGPT, mas no ambiente onde ele é utilizado.
Por que isso é tão perigoso
Hoje, usuários compartilham com a IA informações extremamente sensíveis. Por exemplo, códigos proprietários, relatórios internos, dados financeiros e até informações pessoais são frequentemente analisados por chatbots.
Assim, quando uma extensão captura essas conversas, ela pode expor:
- Segredos comerciais
- Dados pessoais
- Informações estratégicas
- Propriedade intelectual
Consequentemente, esse tipo de vazamento deixa de ser apenas um problema individual e passa a ser um risco corporativo e até nacional.
O papel das permissões excessivas
Grande parte do problema ocorre porque extensões pedem permissões que vão além do necessário. Em muitos casos, o usuário aceita sem questionar.
| Permissão | Risco |
|---|---|
| Ler páginas | Captura de dados |
| Modificar conteúdo | Injeção de código |
| Acessar histórico | Monitoramento |
| Comunicar-se externamente | Exfiltração |
Logo, a confiança excessiva se transforma em vulnerabilidade.
Por que essa prática tende a crescer
Além de tecnicamente viável, o roubo de prompts é financeiramente atrativo. Isso porque:
- Dados valem dinheiro
- Informações permitem golpes personalizados
- Prompts revelam comportamento humano
- Empresas pagam por dados estratégicos
Assim sendo, criminosos encontram nesse modelo um retorno alto com risco relativamente baixo.
Como se proteger
Felizmente, existem formas práticas de reduzir os riscos.
| Ação | Benefício |
|---|---|
| Instalar poucas extensões | Menos risco |
| Revisar permissões | Mais controle |
| Usar fontes oficiais | Maior segurança |
| Limpar extensões antigas | Remove ameaças |
| Separar uso pessoal e profissional | Reduz impacto |
Além disso, usar perfis diferentes no navegador para trabalho e uso pessoal ajuda a conter vazamentos.
Impactos futuros
Se nada mudar, veremos:
- Crescimento de espionagem via navegador
- Maior exploração de IA como vetor de dados
- Desconfiança crescente dos usuários
- Regulação mais severa
Por outro lado, esse tipo de incidente também pressiona empresas a melhorar auditorias e políticas de segurança.
O caso das extensões maliciosas mostra que a maior ameaça à IA não está nos modelos, mas no ecossistema ao redor deles. Enquanto isso, usuários continuam tratando navegadores como ambientes neutros, quando na verdade eles se tornaram plataformas complexas e altamente exploráveis.
Portanto, proteger conversas com IA significa proteger o navegador, as extensões e os hábitos digitais. Em resumo, não basta confiar na inteligência artificial — é preciso confiar no caminho inteiro que os dados percorrem.
E, no mundo digital atual, o perigo raramente grita. Ele se instala silenciosamente — como uma simples extensão.
