OpenAI cria comitê de segurança e treina nova IA

31 maio, 2024

  • OpenAI forma um comitê de segurança para assessorar decisões críticas.
  • Começa o treinamento de um novo modelo de IA para superar o GPT-4.
  • Transparência e segurança no desenvolvimento da inteligência artificial.
Ordenador con la tapa casi cerrada por privacidad.

A OpenAI anunciou a criação de um comitê de segurança e sua formação tem sido um grande tema de conversa. Este comitê terá a tarefa de assessorar o conselho de administração em decisões críticas relacionadas à segurança e proteção de seus projetos. Por que esse movimento é tão relevante? Porque a empresa tem estado sob escrutínio público após a saída de duas figuras-chave: Jan Leike e Ilya Sutskever. Leike criticou a OpenAI por priorizar produtos chamativos sobre a segurança, o que acendeu um intenso debate sobre as práticas da empresa.

O novo comitê é composto por figuras internas da empresa, como o CEO Sam Altman e o presidente Bret Taylor, junto com outros especialistas técnicos e em políticas. Além disso, inclui membros do conselho, como Adam D’Angelo do Quora e Nicole Seligman, ex-conselheira geral da Sony. A primeira tarefa do comitê será avaliar e desenvolver os processos da OpenAI nos próximos 90 dias, para depois tornar públicas as recomendações adotadas. Este passo busca garantir que todas as medidas tomadas sejam coerentes com a segurança e a proteção necessárias no campo da inteligência artificial.

Treinamento do Novo Modelo de IA

A OpenAI iniciou o treinamento de seu próximo modelo de inteligência artificial, que está destinado a superar o sistema GPT-4 que atualmente potencia seu conhecido ChatGPT. Este novo modelo, descrito como um “modelo de fronteira“, promete levar as capacidades da inteligência artificial a um novo nível. Mas o que significa exatamente um modelo de fronteira? Refere-se aos sistemas de IA mais avançados e poderosos, aqueles que estão na vanguarda da tecnologia e que são treinados com vastos conjuntos de dados para gerar texto, imagens, vídeos e conversas humanas com uma precisão impressionante.

Apesar dos recentes problemas internos e das críticas recebidas, a OpenAI sustenta que seus modelos lideram a indústria tanto em capacidade quanto em segurança. A empresa sublinhou seu compromisso com a segurança, afirmando que acolhe um debate robusto neste momento crucial. Embora a controvérsia não tenha sido mencionada diretamente em suas comunicações, a decisão de formar um comitê de segurança e o início do treinamento deste novo modelo indicam um esforço para abordar as preocupações e assegurar que os futuros desenvolvimentos sejam geridos com a devida responsabilidade.

A missão do comitê recém-formado não inclui apenas avaliar os processos atuais, mas também desenvolver novas salvaguardas para garantir que o uso desses modelos avançados seja seguro. Espera-se que, nos próximos 90 dias, o comitê apresente suas recomendações ao conselho, as quais serão compartilhadas publicamente em um esforço para manter a transparência e fomentar a confiança em suas práticas de segurança e desenvolvimento.

1 comentário

Deixe o seu comentário