Kai-Fu Lee, que liderou o Google China, decidiu dar uma guinada radical em sua startup 01.AI, focando nos modelos de código aberto da Deepseek, considerados por ele como um desafio vital para o modelo de negócios da OpenAI.
Em uma recente entrevista, Lee compartilhou que sua empresa deixou de lado a estratégia de treinar grandes modelos de linguagem e optou por utilizar exclusivamente as ofertas da Deepseek. Essa decisão ocorre em um contexto em que a demanda por esses modelos cresceu notavelmente entre os líderes empresariais na China.
Lee aponta que o lançamento da Deepseek marcou um verdadeiro «momento ChatGPT» no país, gerando um entusiasmo desmedido pelas aplicações de inteligência artificial. Essa mudança levou muitos fornecedores de hardware e software na China a alinhar seus serviços em torno dos modelos da Deepseek.
Um desafio à OpenAI
O ex-executivo do Google argumenta que a natureza gratuita dos modelos da Deepseek representa um pesadelo para Sam Altman, CEO da OpenAI. Segundo ele, conheceu várias pessoas que cancelaram suas assinaturas do ChatGPT devido à disponibilidade sem custo algum da Deepseek. «O maior medo de Altman é que seu concorrente seja gratuito», afirma Lee.
Com uma equipe de 200 funcionários, a 01.AI agora se concentrará em personalizar os modelos da Deepseek para clientes em setores como finanças, jogos e jurídico. Lee destaca que um modelo pré-treinado só pode ser justificado se contar com centenas de milhões de usuários, algo que apenas grandes corporações como Alibaba ou Google podem alcançar.
Apesar dessa mudança estratégica, Lee sublinha que a experiência técnica de sua empresa continua sendo essencial. «A forma como se treina, ajusta e realiza o aprendizado por reforço é fundamental e só pode ser realizada por empresas com capacidades em grandes modelos de linguagem», explica.
Com projeções de receita que alcançarão 100 milhões de yuans (aproximadamente 13 milhões de dólares) para o primeiro trimestre de 2025, Lee antecipa um crescimento significativo, embora sua empresa ainda não seja rentável.
A consolidação de modelos pré-treinados
Em outra entrevista, Lee enfatizou a crescente consolidação de modelos pré-treinados tanto nos Estados Unidos quanto na China. Ele considera que as abordagens de código aberto eventualmente prevalecerão, enquanto o pré-treinamento de grandes modelos de linguagem continuará limitado a algumas poucas empresas importantes.
O custo de operação é um fator crítico nessa dinâmica. Enquanto a OpenAI gastou aproximadamente 7 bilhões de dólares em 2024, Lee sustenta que a Deepseek consegue operar com apenas 2% desse valor. «A verdadeira questão não é quem tem um modelo 1% melhor, mas se o modelo da OpenAI é sustentável», reflete.
Lee descreve a Deepseek como uma entidade «infinitamente durável», graças ao seu fundador que possui os recursos para manter as operações atuais e conseguiu reduzir os custos computacionais de maneira drástica. Com um concorrente de tal magnitude, Lee sugere que Altman, provavelmente, não esteja dormindo tranquilo.