Até a última sexta-feira, o recém-lançado app do ChatGPT para macOS da OpenAI tinha um problema de segurança bastante preocupante: as conversas eram armazenadas em texto plano! Imagine a surpresa dos usuários ao descobrir que suas conversas com o famoso chatbot podiam ser facilmente lidas se alguém mal-intencionado ou um aplicativo malicioso acessasse sua máquina. Consegue imaginar a quantidade de informações sensíveis que poderiam estar ao alcance de qualquer pessoa?
O problema veio à tona quando Pedro José Pereira Vieito, um desenvolvedor curioso, demonstrou no Threads como era fácil acessar esses arquivos de texto. Ele criou um app que podia ler as conversas do ChatGPT com apenas um clique. Ele até mostrou como podia encontrar os arquivos em seu computador e ler as conversas apenas mudando o nome do arquivo.
Depois que o The Verge entrou em contato com a OpenAI sobre o problema, a empresa não demorou a reagir. Lançaram uma atualização que criptografa as conversas armazenadas. Um porta-voz da OpenAI, Taya Christianson, declarou ao The Verge: “Estamos cientes desse problema e lançamos uma nova versão do aplicativo que criptografa essas conversas. Estamos comprometidos em fornecer uma experiência de usuário útil enquanto mantemos altos padrões de segurança à medida que nossa tecnologia evolui.”
Com a atualização baixada, o app de Pereira Vieito deixou de funcionar para ler as conversas. O próprio desenvolvedor contou como descobriu o problema: estava curioso para saber por que a OpenAI não havia usado as proteções de sandboxing da Apple e decidiu investigar onde os dados do app estavam sendo armazenados.
A resposta rápida da OpenAI e as implicações de segurança
A OpenAI agiu rapidamente para resolver essa vulnerabilidade, mas o incidente deixou algumas questões importantes sobre a segurança e a privacidade na tecnologia atual. A decisão da OpenAI de lançar seu app apenas através de seu site, evitando a Mac App Store, significa que o app não estava sujeito às rígidas políticas de segurança da Apple, como o sandboxing. Isso pode ter contribuído para que as conversas fossem armazenadas sem criptografia.
Os usuários, compreensivelmente preocupados, se perguntam como uma empresa líder em inteligência artificial pôde ignorar um detalhe tão crucial. O que poderia ter acontecido se alguém com más intenções tivesse descoberto essa vulnerabilidade antes? O risco de que dados pessoais e conversas privadas caíssem em mãos erradas é um pesadelo para qualquer pessoa.
Além disso, a OpenAI costuma revisar as conversas do ChatGPT para melhorar a segurança e treinar seus modelos, a menos que os usuários optem por não participar. No entanto, esse acesso não é algo que se esperaria estar disponível para terceiros desconhecidos que simplesmente soubessem onde procurar. Este incidente ressalta a importância de manter altos padrões de segurança, especialmente quando se trata de aplicativos que lidam com dados tão sensíveis.
Embora a situação pudesse ter sido pior — o app não estava armazenando tudo o que você vê no seu computador em texto plano —, ainda é um alerta. Os desenvolvedores e as empresas de tecnologia devem ser extremamente diligentes para garantir que seus produtos sejam seguros desde o primeiro dia. Cada falha de segurança coloca em risco a confiança do usuário e pode ter consequências graves.