O dilema de regulamentar a IA: É possível controlar o poder das grandes empresas de tecnologia?

31 julho, 2024

A regulamentação da inteligência artificial se tornou um tema quente enquanto governos e grandes empresas de tecnologia lutam para encontrar um equilíbrio entre inovação e segurança. Casos emblemáticos como o da OpenAI e Microsoft mostram os desafios e tensões nesse campo em rápida evolução. Mas será que uma regulamentação eficaz é possível ou estamos diante de uma farsa que oculta interesses econômicos?

Un juez intentando domar un caballo desbocado que simula ser la IA.

Governos de todo o mundo estão correndo para regulamentar a inteligência artificial (IA). Mas será que realmente é possível uma regulamentação significativa nesse campo? A IA é o novo velho oeste da tecnologia. Todos enxergam seu enorme potencial (ou lucro) e enormes riscos (para os negócios e a sociedade). No entanto, poucas pessoas entendem a IA, como usá-la, controlá-la ou para onde ela está indo. E mesmo assim, os políticos desejam regulamentá-la. Estamos montados em um cavalo desgovernado que não podemos dirigir nem controlar, ou podemos freá-lo por meio da regulamentação?

A IA generativa (gen-AI), especialmente os modelos de linguagem de grande porte (LLM), vieram para ficar. Este é o início de uma nova jornada: mas podemos realmente controlá-la? As Big Tech controlam a gen-AI e seu motor é o lucro econômico mais do que o benefício do usuário. O caso da Microsoft e da OpenAI é um exemplo claro dos problemas e pressões que todas as grandes empresas de tecnologia profundamente investidas no desenvolvimento de IA enfrentam.

A OpenAI, fundada em 2015 como uma empresa de pesquisa de inteligência artificial sem fins lucrativos, se transformou com o tempo. Em 2019, a Microsoft investiu um bilhão de dólares na OpenAI, marcando uma mudança significativa. A empresa, supervisionada por um conselho de administração, tinha como missão desenvolver IA segura e benéfica. No entanto, as tensões internas e as decisões unilaterais, como o lançamento do ChatGPT por Sam Altman sem aviso prévio ao conselho, destacaram os desafios de manter o foco original.

A batalha entre o lucro e a segurança: O caso da OpenAI e da Microsoft

A história da OpenAI e da Microsoft é um exemplo perfeito da luta entre lucro e segurança no desenvolvimento de IA. Sam Altman, um dos cofundadores da OpenAI, tomou decisões cruciais sem consultar o conselho de administração, o que levou à sua demissão em novembro de 2023. No entanto, menos de uma semana depois, ele foi reinstalado, e pouco depois, a Microsoft aumentou seu investimento na empresa.

A Microsoft, um gigante tecnológico que precisa recuperar seu investimento, enfrenta seus próprios desafios. Em maio de 2024, a Microsoft publicou um relatório intitulado Relatório de Transparência de IA Responsável, destacando seu enfoque centrado no ser humano para os investimentos em IA. Esse relatório chegou pouco depois de o CSRB criticar a cultura de segurança da Microsoft, qualificando-a de inadequada e exigindo uma revisão completa.

O caso do produto Recall da Microsoft, projetado para capturar e armazenar capturas de tela frequentes, causou um protesto público e profissional, obrigando a empresa a mudar para um modo padrão de desativação. Esse incidente ilustra os riscos de segurança e as controvérsias que podem surgir quando as empresas priorizam a coleta de dados para treinar seus modelos de IA em detrimento da segurança e privacidade dos usuários.

Essas histórias sublinham dois pontos fundamentais: as Big Tech identificaram o potencial da IA para aumentar os lucros, mas ainda não aprenderam como aproveitar esse potencial sem comprometer a segurança e privacidade dos usuários. A busca por lucros pode vir às custas dos usuários de IA, o que destaca a necessidade urgente de uma regulamentação eficaz.

Modelos de regulamentação: Monolítico vs. Específico

Existem dois modelos básicos de regulamentação: monolítico e específico. O modelo monolítico tenta fornecer uma regulamentação geral que abrange todos os aspectos do tema para todas as organizações em todas as partes da jurisdição. O exemplo clássico disso é o GDPR da União Europeia. Por outro lado, o enfoque específico, utilizado por agências federais nos EUA, introduz regulações mais relevantes para organizações específicas. Por exemplo, a FCC regula as comunicações interestaduais e internacionais, a SEC regula os mercados de capitais e a FTC protege os consumidores.

Ambos os modelos têm suas forças e fraquezas. O GDPR, por exemplo, é frequentemente considerado falho em seu propósito principal de proteger a privacidade pessoal do abuso por parte das grandes empresas de tecnologia. Ilia Kolochenko, CEO da ImmuniWeb, vai além e o qualifica de “fundamentalmente quebrado”. Embora tenha sido criado com boas intenções, sua implementação levou pequenas e médias empresas a gastar tempo e recursos em um cumprimento pseudoeeficaz, enquanto as grandes empresas não se ajustam a ele.

Kolochenko prefere o modelo dos EUA, que fornece uma regulamentação mais ágil e adaptada aos riscos específicos de cada setor. Esse enfoque permite uma adaptação mais rápida às circunstâncias em mudança e um melhor apoio para os usuários finais. No entanto, não é perfeito, como demonstram as preocupações atuais sobre as regras de divulgação da SEC.

Um desafio importante é que as regulamentações são reativas às ameaças; estas existem antes de que a regulamentação seja considerada. No caso da IA, os modelos já existem e os dados usados para treiná-los já foram coletados. Portanto, regulamentar um campo que se desenvolve tão rapidamente é como tentar pegar um cavalo desgovernado. Embora a regulamentação seja essencial para minimizar os danos atuais e futuros, sua eficácia será limitada se não puder se adaptar ao ritmo da evolução da IA.

Deixe o primeiro comentário