O ex-chefe da Agência de Segurança Nacional (NSA), o general aposentado Paul Nakasone, se junta ao conselho diretivo da OpenAI. Sim, você leu bem! Este movimento está claramente desenhado para acalmar aqueles críticos que pensam que a OpenAI está avançando rápido demais e sem a devida precaução para seus clientes e, possivelmente, para a humanidade inteira. Está surpreso? Não é para menos. A OpenAI tem sido objeto de escrutínio por implementar modelos e serviços sem avaliar adequadamente seus riscos ou assegurá-los corretamente.
O histórico de Nakasone é impressionante, com décadas de experiência no exército, no Comando Cibernético dos EUA e na NSA. Independentemente do que se pense sobre as práticas e decisões dessas organizações, não se pode acusá-lo de falta de experiência. Assim, da próxima vez que alguém questionar as decisões da OpenAI, provavelmente se deparará com o currículo de Nakasone como resposta. É esta uma jogada inteligente para tranquilizar os acionistas preocupados? TechCrunch parece sugerir que sim, e não há dúvida de que as conexões que ele traz consigo do aparato estatal e militar também são bem-vindas.
Nakasone, em um comunicado de imprensa, declarou: “A dedicação da OpenAI à sua missão se alinha estreitamente com meus próprios valores e experiência no serviço público”. Esta afirmação ressoa profundamente quando lembramos que a NSA, sob sua direção, defendeu a prática de comprar dados de procedência duvidosa para alimentar suas redes de vigilância, argumentando que não havia nenhuma lei que o proibisse. A OpenAI, por sua vez, tem tomado grandes quantidades de dados da internet, e quando descoberta, argumentou de maneira similar que não há leis que o proíbam. Parece que estão cortados pela mesma tesoura no que se refere a pedir perdão em vez de permissão.
A experiência de Nakasone e seu impacto na OpenAI
TechCrunch destaca que a chegada de Nakasone não só aporta experiência, mas também uma valiosa perspectiva para a OpenAI, especialmente num momento em que a companhia se posiciona como um fornecedor de inteligência artificial não só para a indústria tecnológica, mas também para o governo, a defesa e grandes empresas. Esta incorporação se apresenta como uma jogada estratégica para abordar as preocupações sobre a segurança e a cibersegurança em um mundo cada vez mais digitalizado e vulnerável a ataques.
A experiência de Nakasone é especialmente relevante para a nova função que assumirá no subcomitê de “segurança e proteção” do conselho diretivo. Este subcomitê é responsável por fazer recomendações críticas sobre decisões de segurança para os projetos e operações da OpenAI. No entanto, o que realmente fará essa entidade recém-criada e como operará ainda é uma incógnita. Recentemente, vários dos principais especialistas em segurança da OpenAI deixaram a empresa, o que adiciona um pouco de mistério à dinâmica interna deste comitê.
No comunicado oficial da OpenAI, menciona-se que as perspectivas de Nakasone ajudarão a empresa a compreender melhor como a inteligência artificial pode fortalecer a cibersegurança ao detectar e responder rapidamente às ameaças. Espera-se que esta capacidade beneficie inúmeras instituições que são frequentemente alvo de ataques cibernéticos, como hospitais, escolas e instituições financeiras. Não é apenas uma questão de segurança, mas também uma jogada de mercado para posicionar a OpenAI como um aliado indispensável na luta contra os ciberataques.
A OpenAI está movendo suas peças no tabuleiro da inteligência artificial e da cibersegurança com a incorporação de Nakasone. Será suficiente para tranquilizar seus críticos e assegurar seus acionistas? Só o tempo dirá, mas no momento, parece que a OpenAI está jogando todas as suas cartas para tentar demonstrar seu compromisso com a segurança e a ética no uso da IA.