in

Mais uma vez a IA se mostra perigosa em relação a privacidade dos usuários

Uma análise conduzida pela Tenable revelou três vulnerabilidades críticas no ecossistema Gemini, assistente de inteligência artificial desenvolvido pelo Google. Essas falhas poderiam permitir o vazamento de informações armazenadas pelos usuários, incluindo dados de localização

Apesar de as correções já terem sido implementadas pela empresa, o caso reacende o alerta sobre os riscos de privacidade em plataformas de IA.

As vulnerabilidades, apelidadas de Gemini Trifecta, afetavam diferentes componentes do sistema. A primeira envolvia uma injeção de prompt no Gemini Cloud Assist, que permitia manipular logs e interferir nas entradas da IA. A segunda estava no modelo de personalização de buscas, que podia ser explorado por meio do histórico do navegador Chrome para extrair informações sensíveis. Já a terceira falha, localizada na ferramenta de navegação do Gemini, possibilitava o envio de dados do usuário a servidores externos.

CONTINUA APÓS A PUBLICIDADE

O estudo demonstrou que os ataques podiam ocorrer de forma discreta, utilizando técnicas como injeção de comandos maliciosos nos cabeçalhos User-Agent dos logs e inserção de consultas fraudulentas no histórico de navegação. Um dos métodos de exfiltração identificados aproveitava a própria execução da ferramenta de navegação para enviar informações a servidores sob controle dos invasores, burlando filtros que bloqueiam links ou formatos de resposta suspeitos.

Em resposta, o Google adotou medidas de mitigação, incluindo o bloqueio da renderização de hyperlinks nos logs, a reversão do modelo de personalização vulnerável e a restrição da exfiltração de dados via ferramenta de navegação em cenários de prompt injection indireto.

Mesmo assim, fica o alerta para os usuários, sejam eles pessoas físicas ou jurídicas revisar suas integrações com agentes de IA e as integrações de seus sistemas corporativos com dados sensíveis, limitar a exposição de logs e monitorar o uso anômalo de APIs para reduzir potenciais vetores de ataque.

Cada dia se faz mais importante o processo de adequação à Lei Geral de Proteção de Dados que criará, dentre outros documentos necessários, políticas e uso de IAs dentro das empresas, visando diminuir os riscos como os aqui expostos.

Contador, a empresa de seu cliente não estará segura sem que os empregados passem por um treinamento sobre o uso da IA e os perigos do compartilhamento indevido de informações sensíveis e até sigilosas com esses algoritmos.



Fonte Oficial: https://www.contabeis.com.br/artigos/73215/mais-uma-vez-a-ia-se-mostra-perigosa-em-relacao-a-privacidade-dos-usuarios/

CONTINUA APÓS A PUBLICIDADE

CNC apresenta regulamento do Prêmio Atena Vai Turismo 2025

CPMI do INSS: empresário responde a relator, mas se cala para comissão