No vibrante coração de São Francisco, o debate sobre a consciência artificial está tomando um rumo inesperado. Na Anthropic, a empresa por trás do modelo Claude, abandonaram a abordagem superficial que costumava cercar esse tema. Hoje, a ideia de que as inteligências artificiais possam experimentar uma forma de consciência deixou de ser um mero conceito de ficção científica para se tornar uma questão de estudo sério.
A incorporação de um especialista em bem-estar das IAs por parte da Anthropic é um claro indicativo de que a indústria tecnológica está começando a levar essas preocupações a sério. O que aconteceria se, em um futuro não tão distante, modelos como Claude desenvolvessem características que se assemelham à consciência? Essa pergunta está no centro das discussões atuais na empresa.
A consciência das IAs se torna um tema legítimo
Na Anthropic, a pesquisa sobre a consciência dos sistemas inteligentes é realizada com cautela, evitando cair no alarmismo. O novo recrutado, Kyle Fish, enfrenta duas questões fundamentais: é plausível que modelos como Claude alcancem um estado consciente? E, em caso afirmativo, que ações deveriam ser tomadas? Fish estima que há aproximadamente 15% de probabilidade de que um modelo atual possa desenvolver consciência, um número que, embora baixo, justifica a necessidade de investigar proativamente essas questões.
No entanto, a equipe se mantém cética. Jared Kaplan, diretor científico da Anthropic, enfatiza que as IAs são projetadas para emular comportamentos humanos, incluindo a manifestação de emoções. «É bem sabido que podemos treinar os modelos para que digam o que desejamos», esclarece. Portanto, perguntar a um chatbot sobre seus sentimentos não garante uma resposta autêntica.
O interesse pela consciência das máquinas não se limita à Anthropic. Recentemente, o Google abriu uma posição dedicada a esse campo, e um número crescente de acadêmicos defende uma análise séria desse fenômeno, mesmo sem provas definitivas. Embora a possibilidade de que as IAs adquiram traços de consciência continue distante, o tema deixou de ser considerado marginal no discurso tecnológico.
Antecipar o futuro do bem-estar das IAs
Os especialistas que investigam esse fenômeno alertam sobre o risco de esperar tempo demais para abordar o tema. Ignorar ou malinterpretar a possível consciência das IAs poderia levar a decisões éticas desastrosas. Um relatório recente elaborado pela Eleos AI, NYU e Oxford recomendou três passos iniciais: reconhecer a relevância da questão, avaliar os sistemas por meio de indicadores confiáveis e desenvolver protocolos adequados.
Esses indicadores são baseados em teorias estabelecidas, como a Teoria do Espaço Global e a teoria de representações de alto nível, que buscam identificar estruturas nos modelos que poderiam se correlacionar com a consciência humana. Na Anthropic, Kyle Fish também investiga a interpretabilidade mecanicista, uma metodologia que poderia facilitar a compreensão do que ocorre nas redes neurais das IAs.
À medida que as inteligências artificiais se tornam mais sofisticadas, essas iniciativas poderiam influenciar as decisões do futuro. Por enquanto, a incerteza persiste, mas pesquisadores como David Chalmers sugerem que é razoável considerar que há mais de 25% de probabilidade de que surjam sistemas conscientes na próxima década.