O novo modelo de imagem do ChatGPT facilita a criação de documentos falsificados.

1 abril, 2025

A OpenAI lançou um modelo inovador que permite gerar documentos enganosos em segundos, o que levanta grandes questionamentos sobre a segurança.

O recente modelo de imagem da OpenAI revolucionou a criação de documentos, permitindo a geração de falsificações altamente realistas em questão de segundos. Esta nova ferramenta, conhecida como GPT-4o, está deixando para trás as técnicas tradicionais de edição de imagens, abrindo as portas para a possibilidade de que qualquer pessoa possa criar documentos falsos de forma simples.

Um usuário do X, sob o pseudônimo de «God of Prompt«, compartilhou exemplos impactantes que demonstram como este modelo pode produzir imagens enganosamente autênticas de cancelamentos de voos, transferências bancárias, diplomas universitários ou receitas médicas.

Desafios para os sistemas de segurança

A proliferação de documentos gerados por IA apresenta um desafio sem precedentes para os mecanismos de verificação atuais. O que acontece quando as organizações realizam apenas verificações superficiais? Este dilema se torna crítico em situações como solicitações de compensação, histórico de pagamentos de aluguel ou mesmo nas primeiras fases de seleção de pessoal.

As agências e empresas que atualmente implementam controles podem ser sobrecarregadas pelo volume de possíveis falsificações.

Embora os sistemas de detecção tenham taxas de sucesso consistentes, o aumento de documentos fraudulentos eleva a probabilidade de que alguns escapem à detecção.

Para mitigar esses riscos, a OpenAI integrou características de segurança em seu modelo. Cada imagem gerada pelo GPT-4o inclui metadados C2PA que as identificam como criadas por inteligência artificial. No entanto, essa proteção tem uma armadilha: aqueles que verificam essas imagens precisam usar uma ferramenta específica para detectar esses metadados. Além disso, é possível que usuários habilidosos encontrem maneiras de remover essas marcas digitais.

A OpenAI também desenvolveu uma ferramenta interna para rastrear imagens geradas pelo GPT-4o, embora os detalhes sobre seu uso e quem tem acesso a ela ainda sejam pouco claros.

Na documentação do sistema GPT-4o, a OpenAI expressa sua intenção de «maximizar a utilidade e a liberdade criativa dos usuários, minimizando ao mesmo tempo o dano potencial». A empresa reconhece que a segurança é um processo contínuo e que suas diretrizes se adaptam à medida que dados de uso no mundo real são coletados.

Deixe o primeiro comentário