OpenAI, a empresa responsável pela popular inteligência artificial ChatGPT, está dando passos firmes para garantir que sua tecnologia seja utilizada de maneira responsável. Com o objetivo de reduzir os riscos associados ao uso indevido de sua API, a OpenAI avalia implementar um processo de verificação de identidade mais rigoroso.
Essa mudança ocorre em um contexto onde a empresa busca não apenas melhorar suas medidas de segurança, mas também otimizar o acesso a funcionalidades avançadas de seus modelos de inteligência artificial. Recentemente, a OpenAI teve que adiar o lançamento de seu modelo mais esperado, GPT-5, devido a desafios relacionados à sua infraestrutura, o que levou a empresa a se concentrar em outras áreas críticas, como a cibersegurança.
Detalhes da nova verificação de identidade
A iniciativa conhecida como API Organization Verification se propõe como uma solução inovadora que permitiria aos desenvolvedores desbloquear o acesso a ferramentas e modelos avançados. Segundo as informações disponíveis, a verificação será um processo ágil que levará apenas alguns minutos e exigirá que os usuários apresentem uma identificação válida emitida pelo governo de um dos países aceitos, que atualmente são mais de 200.
Um aspecto a considerar é que a verificação de uma organização só poderá ser realizada uma vez a cada 90 dias. Isso significa que aqueles que já verificaram sua identidade para outra entidade terão que esperar para realizar novos processos. Essa abordagem busca evitar o uso mal-intencionado das APIs e proteger a propriedade intelectual, já que, como menciona a OpenAI, “uma pequena minoria de desenvolvedores utiliza intencionalmente nossas APIs em violação de nossas políticas de uso”.
Embora a empresa ainda não tenha feito um anúncio oficial sobre a implementação dessa nova medida, espera-se que em breve sejam fornecidos mais detalhes sobre como funcionará esse processo e seu impacto na comunidade de desenvolvedores.