Em um caso que chamou a atenção das autoridades, um antigo executivo de uma empresa de tecnologia enfrenta graves acusações por ter fraudado tanto investidores quanto clientes, ao afirmar que seu produto estrela era uma solução baseada em IA, quando na verdade era operado por trabalhadores humanos no exterior.
Paul Roberts, que ocupava o cargo de CEO e presidente da Kubient, é o protagonista desta polêmica. A empresa havia promovido sua ferramenta KAI (Kubient Artificial Intelligence) como um sistema altamente avançado projetado para detectar e prevenir fraudes na publicidade digital, uma proposta que supostamente a colocava acima de seus concorrentes e a tornava atraente para os investidores.
Uma fachada que desmorona
No entanto, as acusações do promotor do distrito sul de Nova York e da SEC revelam que a realidade era muito diferente. Em vez de contar com algoritmos sofisticados, grande parte do trabalho que se atribuía ao KAI era realizado manualmente por subcontratados localizados no exterior. Essa estratégia de ocultamento permitiu à Kubient apresentar uma imagem de inovação tecnológica que na verdade não refletia seu funcionamento real, enganando seus clientes e colaboradores.
Mas as acusações não se limitam à distorção do produto. Roberts também é acusado de ter implementado um esquema para inflar artificialmente as receitas da Kubient. A empresa celebrou contratos de serviços recíprocos com outra entidade, cada um no valor de 1,3 milhões de dólares, contabilizando esses valores como receitas, apesar de não terem sido trocados serviços reais, especialmente os relacionados à detecção de fraudes através do KAI. Essas receitas fictícias foram reportadas em documentos oficiais, incluindo a oferta pública inicial da Kubient, que arrecadou 12,5 milhões de dólares, e uma oferta secundária posterior de 20 milhões de dólares. Os promotores sustentam que tais transações não teriam sido viáveis sem as afirmações enganosas sobre o KAI.
A situação evidencia um fenômeno conhecido como “AI washing”, onde as empresas exageram ou distorcem seu uso de inteligência artificial para atrair investimentos. As autoridades financeiras, como a SEC, alertaram que estão monitorando de perto essas práticas. Este não é um caso isolado; outro empreendedor, fundador da Joonko Diversity, também enfrenta acusações por declarações enganosas sobre as capacidades de IA de sua plataforma de recrutamento.
Um ecossistema tecnológico que exige transparência
A problemática com a inteligência artificial não se limita a enganos no âmbito comercial. Também surgem abusos que utilizam a tecnologia de maneira maliciosa. Por exemplo, as fraudes que envolvem deepfakes, esses vídeos ou áudios manipulados de forma extremamente realista, estão em ascensão. Um caso recente envolveu um funcionário de finanças que foi enganado por falsos executivos criados por IA, resultando em uma perda de mais de 25 milhões de dólares. Além disso, o uso de IA generativa para criar identidades falsas ou falsificar aplicações está se tornando uma grande preocupação, especialmente para posições de trabalho remoto, onde alguns utilizam essas ferramentas para simular entrevistas ou gerar respostas, complicando a detecção de fraudes.
A desconfiança começou a crescer entre os investidores e as empresas, que agora são instadas a verificar com maior rigor as capacidades de IA que lhes são apresentadas. Este escândalo ressalta a necessidade de transparência e ética no desenvolvimento e comercialização de tecnologias relacionadas à inteligência artificial. No entanto, é fundamental distinguir entre práticas fraudulentas e avanços genuínos neste campo. Muitas empresas estão trabalhando em agentes de IA eficientes para detectar fraudes, empregando técnicas de aprendizado de máquina e análise de dados em tempo real. A recente aquisição da startup Alterya, que se especializa na detecção de fraudes por meio de agentes de IA, pela Chainalysis por 150 milhões de dólares, é um claro exemplo do valor que se atribui a soluções autênticas e eficazes neste âmbito.

