Ex-funcionários dos gigantes da IA publicam uma Carta aberta alertando sobre os riscos ocultos da IA.

10 junho, 2024

  • Funcionários de IA pedem proteção para denunciantes.
  • Carta aberta alerta sobre os riscos ocultos da IA.
  • Acusam falta de transparência em empresas de inteligência artificial.
Olho observando pessoas.

Um grupo de funcionários atuais e antigos de empresas proeminentes de inteligência artificial lançou um alerta contundente sobre a falta de supervisão de segurança na indústria. Em uma carta aberta, esses trabalhadores pedem um “direito de alertar sobre a inteligência artificial“, ressaltando a necessidade de aumentar as proteções para os denunciantes. Entre os signatários estão onze funcionários atuais e antigos da OpenAI e dois da Google DeepMind, um dos quais também trabalhou na Anthropic.

A carta destaca que as empresas de IA possuem uma quantidade substancial de informações não públicas sobre as capacidades e limitações de seus sistemas, a adequação de suas medidas de proteção e os níveis de risco de diversos tipos de dano. No entanto, atualmente têm apenas obrigações fracas de compartilhar essas informações com os governos e nenhuma obrigação de compartilhá-las com a sociedade civil. Segundo os signatários, não se pode confiar que todas as empresas compartilhem voluntariamente essas informações cruciais.

A OpenAI, em resposta, defendeu suas práticas afirmando que conta com canais como uma linha de atendimento para relatar problemas e que não lançam novas tecnologias até que existam salvaguardas adequadas. Por outro lado, a Google não respondeu imediatamente aos pedidos de comentários. Um porta-voz da OpenAI mencionou: “Estamos orgulhosos de nosso histórico de fornecer os sistemas de IA mais capazes e seguros e acreditamos em nossa abordagem científica para abordar o risco. Concordamos que é crucial um debate rigoroso dada a importância desta tecnologia e continuaremos colaborando com governos, a sociedade civil e outras comunidades em nível mundial”.

Os temores sobre os possíveis danos da inteligência artificial têm existido há décadas, mas o recente auge da IA intensificou essas preocupações e deixou os reguladores tentando se atualizar com os avanços tecnológicos. Embora as empresas de IA tenham declarado publicamente seu compromisso com o desenvolvimento seguro da tecnologia, pesquisadores e funcionários têm alertado sobre a falta de supervisão, apontando que as ferramentas de IA podem exacerbar os danos sociais existentes ou criar novos.

Reações e consequências no mundo da IA

A carta aberta, que foi reportada pela primeira vez pelo New York Times, pede maiores proteções para os trabalhadores nas empresas avançadas de IA que decidem expressar suas preocupações sobre a segurança. Os signatários solicitam um compromisso com quatro princípios de transparência e responsabilidade. Entre esses, destacam que as empresas não obriguem os funcionários a assinar acordos de não menosprezo que proíbam discutir publicamente os riscos relacionados à IA e que exista um mecanismo para que os funcionários possam compartilhar preocupações de maneira anônima com os membros do conselho diretor.

“Enquanto não houver uma supervisão governamental efetiva dessas corporações, os funcionários atuais e antigos são algumas das poucas pessoas que podem responsabilizá-las perante o público”, afirma a carta. No entanto, os amplos acordos de confidencialidade bloqueiam a possibilidade de expressar essas preocupações, exceto para as próprias empresas, que podem não estar abordando adequadamente esses problemas.

Empresas como a OpenAI adotaram táticas agressivas para evitar que os funcionários falem livremente sobre seu trabalho. Um relatório da Vox da semana passada revelou que a OpenAI obriga os funcionários que deixam a empresa a assinar documentos extremamente restritivos de não menosprezo e não divulgação, ou então perderão toda a sua participação acionária acumulada. Sam Altman, CEO da OpenAI, se desculpou após o relatório, garantindo que mudaria os procedimentos de saída dos funcionários.

A carta surge após dois funcionários de alto nível da OpenAI, o cofundador Ilya Sutskever e o pesquisador-chave em segurança Jan Leike, renunciarem no mês passado. Após sua partida, Leike alegou que a OpenAI havia abandonado uma cultura de segurança em favor de produtos chamativos. A carta aberta de terça-feira reflete algumas das afirmações de Leike, indicando que as empresas não mostram nenhuma obrigação de serem transparentes sobre suas operações.

O conteúdo da carta e as reações subsequentes evidenciam uma crescente preocupação na comunidade de IA sobre a falta de supervisão e as táticas de intimidação contra os funcionários que desejam falar sobre os riscos. Esta situação destaca a necessidade urgente de estabelecer normas mais rígidas e mecanismos de proteção para aqueles que estão em posição de alertar sobre os perigos potenciais da inteligência artificial.

Deixe o primeiro comentário