As principais empresas de tecnologia do mundo, como Google, Meta, Microsoft, TikTok e OpenAI, estão colaborando intensamente com os reguladores da União Europeia para garantir que seus produtos de inteligência artificial cumpram as rígidas normas de proteção de dados do bloco. Segundo a Comissão de Proteção de Dados da Irlanda, que atua como o regulador principal na UE para essas empresas, ainda não foi necessário exercer plenamente seus amplos poderes sobre a IA. No entanto, no futuro, elas podem ser obrigadas a modificar seus modelos de negócio para garantir a privacidade dos dados.
A extensa participação das empresas tecnológicas inclui a consulta sobre novos produtos no âmbito dos modelos de linguagem de IA. Por exemplo, o Google concordou em atrasar e realizar mudanças em seu chatbot Gemini após consultas com o regulador irlandês. Essa interação é crucial, pois a partir do próximo mês, os operadores de modelos de IA deverão cumprir a nova Lei de IA da UE, além do Regulamento Geral de Proteção de Dados (GDPR), que pode impor multas significativas por descumprimento.
Desafios da Proteção de Dados na Era da IA
A inteligência artificial apresenta numerosos desafios para a privacidade dos dados, segundo os dois principais funcionários da Comissão de Proteção de Dados da Irlanda. Os reguladores devem decidir se as empresas podem utilizar dados públicos da internet para treinar modelos de IA e em qual base legal podem usar dados pessoais. Além disso, os operadores de IA devem demonstrar como podem garantir os direitos dos indivíduos sobre seus dados, incluindo o direito de apagar essas informações.
Um aspecto crítico é o risco de que os modelos de IA forneçam dados pessoais incorretos sobre indivíduos, o que pode ter graves repercussões. A colaboração com os reguladores é essencial para abordar esses problemas. As empresas buscam ativamente a opinião dos reguladores sobre seus novos produtos de IA, especialmente no espaço dos grandes modelos de linguagem. Este diálogo contínuo é fundamental para garantir que a inovação em IA não comprometa os padrões de privacidade de dados.