Partilhar fotos com ferramentas de inteligência artificial (IA) como o ChatGPT ou o Gemini está na moda e pode ser divertido — especialmente com as tendências virais que surgem nas redes sociais. No entanto, este hábito aparentemente inofensivo pode esconder riscos sérios para a sua privacidade e segurança digital.
Neste artigo, explicamos o que acontece quando envia imagens para uma IA, que perigos estão envolvidos e como pode proteger os seus dados sensíveis.
O que fazem as IAs com as fotos que recebe?
Ferramentas baseadas em IA generativa, como o ChatGPT, Gemini (Google) ou apps como FaceApp e Remini, utilizam os conteúdos enviados pelos utilizadores para:
- Treinar os seus modelos;
- Recolher feedback para melhorar os serviços;
- Testar novas funcionalidades baseadas em imagem.
No caso do Gemini, a Google informa que todas as conversas ficam armazenadas durante pelo menos 72 horas, mesmo que opte por não usá-las para treino. Já no ChatGPT, é possível desativar a utilização das suas conversas para treinar a IA.
Se enviar uma imagem, a IA pode analisar os rostos, identificar locais e até adaptar a imagem a diferentes estilos. Alguns utilizadores já conseguiram recriar imagens suas em estilo Studio Ghibli ou detetar onde foi tirada uma determinada fotografia com base no cenário.
Existe risco ao enviar fotos para uma IA?
Sim. Existem riscos reais de privacidade e segurança, especialmente se a plataforma não for transparente ou se ocorrer uma falha de segurança.
Segundo gestor de operações da Redbelt Security, ao interagir com uma IA, está a partilhar mais do que pensa:
“São recolhidos dados sobre o dispositivo, detalhes da imagem e até o comportamento do utilizador”.
Além disso, como não há controlo sobre o destino das imagens, estas podem ser usadas para:
- Treinar IAs sem o seu consentimento;
- Criar conteúdos ofensivos ou manipulados;
- Alimentar sistemas de publicidade personalizada;
- Ser vendidas a terceiros.
Riscos relacionados com biometria facial
Especialistas alertam que algumas ferramentas com capacidades avançadas de visão computacional conseguem extrair informações biométricas do rosto:
- Espaçamento dos olhos
- Formato das sobrancelhas
- Linha da mandíbula
- Padrões faciais únicos
Com estes dados, é possível criar uma espécie de “impressão facial”, semelhante a uma impressão digital, usada para:
- Reconhecimento facial automático
- Comparação entre rostos
- Treino de outros modelos de IA
Segundo especialistas em proteção de dados, este tipo de informação pode ser usado de forma abusiva:
“Ao fornecer uma simples foto, pode estar a entregar insumos para criar uma réplica digital do seu rosto”.
Estes modelos podem ser utilizados para enganar sistemas de autenticação facial, como os que protegem apps bancárias, entradas em edifícios ou dispositivos móveis.
Como proteger os seus dados ao usar IA com imagens
Apesar dos riscos, é possível usar estas tecnologias de forma consciente e segura. Veja algumas recomendações dos especialistas:
Dicas para evitar a exposição de dados sensíveis
- Desative o treino da IA com base nas suas conversas (opção disponível no ChatGPT e Gemini);
- Use chats temporários ou modos privados que não guardam histórico;
- Evite partilhar imagens com informações sensíveis, como documentos, rostos de terceiros ou locais identificáveis;
- Leia os termos de uso e políticas de privacidade antes de usar a plataforma;
- Prefira serviços confiáveis e com políticas claras de proteção de dados;
- Nunca envie fotos de outras pessoas sem o seu consentimento.
Segundo especialista em proteção de dados, rostos podem ser considerados dados sensíveis ao abrigo da Lei de Proteção de Dados, o que exige especial cuidado:
“Mesmo que não haja exposição direta, os modelos podem absorver informações e usá-las futuramente. Isso levanta questões legais e éticas”.
Conclusão
Partilhar fotos com IAs pode parecer inofensivo, mas envolve riscos reais que devem ser ponderados. A chave está num uso consciente e informado da tecnologia.
Antes de carregar uma imagem, pense no impacto que essa decisão pode ter sobre a sua privacidade, identidade digital e segurança.