O painel de IA mais importante de 2026: a China pode liderar o próximo paradigma?
- Time ALGOR

- 21 de jan.
- 39 min de leitura
Os maiores especialistas em IA da China discutem como os modelos se diferenciarão, o próximo paradigma, incluindo o aprendizado autônomo, e a probabilidade de liderar a corrida global pela Inteligência Artificial Geral (AGI).

Em um evento de IA de alto nível realizado em 10 de janeiro de 2026, em Pequim, coorganizado pela Universidade Tsinghua e pela Zhipu AI, um painel de discussão que gerou manchetes reuniu vozes importantes da indústria e da academia.
O debate contou com a participação do Professor Tang Jie, cientista-chefe e cofundador da Zhipu AI; do Professor Yang Qiang, da HKUST; de Lin Junyang, líder técnico da equipe Qwen da Alibaba; e de Yao Shunyu, recém-nomeado cientista-chefe de IA da Tencent, que anteriormente era pesquisador da OpenAI.
Foi um momento raro em que várias das principais figuras da IA na China apareceram juntas em uma conversa aberta e pública. Li Guangmi, CEO da Shixiang Technology, é um dos comentaristas e defensores mais ativos da IA na China. Recomendo fortemente sua análise trimestral sobre tecnologias de IA generativa com Benita Zhang Xiaojun.
O painel discutiu como os grandes modelos (linguísticos) chineses podem se diferenciar, o próximo paradigma para a Inteligência Artificial Geral (IAG), como o aprendizado autônomo, estratégias de agentes e a direção futura do ecossistema de IA na China. Para os interessados na indústria de IA chinesa, a discussão ofereceu uma visão excepcionalmente franca da dinâmica atual.
Naturalmente, as declarações mais impactantes vieram de Lin Junyang, que afirmou que as empresas chinesas têm menos de 20% de chance de se tornarem as principais empresas de IA nos próximos três a cinco anos. Em um discurso separado no evento, Tang Jie acrescentou que a diferença entre os EUA e a China em IA está, na verdade, aumentando cada vez mais.

A seguir, encontra-se a tradução completa do painel utilizando o Claude. A transcrição original foi obtida no Zhipu AI .
Li Guangmi (Moderadora):
Sou Guangmi, moderadora do próximo painel. Estive ouvindo da plateia agora há pouco e tive algumas impressões.
Em primeiro lugar, o Professor Tang tem um grande apelo — o conjunto de talentos da Tsinghua é excelente, não apenas no país, mas também no exterior; a proporção de ex-alunos da Tsinghua é muito alta.
Em segundo lugar, a minha impressão após ouvir várias palestras é: "não se trata apenas de seguir tendências, não se trata apenas de código aberto" — todos estão explorando o seu próprio próximo paradigma, e não apenas codificando; todos estão explorando as suas próprias formas de produto.
Este momento é particularmente interessante. 2025 é, na verdade, o ano em que os modelos chineses de código aberto "brilham intensamente". Os "Quatro Mestres do Código Aberto" (DeepSeek, Qwen da Alibaba, Kimi da Moonshot AI e GLM da Zhipu AI) alcançaram um sucesso tremendo globalmente, e a programação teve um crescimento de 10 a 20 vezes no último ano. Mesmo no exterior, as pessoas estão se perguntando até onde o escalonamento chegou e se novos paradigmas surgiram. Portanto, o evento de hoje e este painel discutindo "para onde vamos a partir daqui" são especialmente interessantes.
1. Como os grandes modelos chineses irão se diferenciar?
(Na China, as pessoas geralmente se referem a modelos generativos de IA de grande porte, sejam eles de texto, fala, vídeo ou 3D, como modelos grandes (大模型).Li Guangmi (Moderadora):
Vamos começar com o primeiro tópico interessante: diferenciação.
As empresas do Vale do Silício estão claramente se diferenciando. Acho que podemos iniciar a conversa com esse tema da “diferenciação”.
A Anthropic tem sido uma grande inspiração para empresas chinesas que adotam modelos de negócios inovadores. Apesar da forte concorrência no Vale do Silício, elas não seguiram o exemplo de todos os outros, mas se concentraram em soluções corporativas, programação e sistemas de agentes.
Então, tenho pensado: para quais direções os modelos de negócios chineses irão se diferenciar?
Acho que a diferenciação é um tema bastante interessante. Vejo que Shunyu está online — Shunyu, por que você não começa contando a todos com o que tem se ocupado ultimamente?
Yao Shunyu:
Olá a todos. Estou parecendo um rosto gigante aqui no evento? (Risos da plateia)
Desculpem, não pude estar presente em Pequim hoje, mas estou feliz em participar deste evento. Ultimamente tenho estado ocupado criando modelos e produtos — acho que isso é normal para quem trabalha com IA. Voltar para a China é muito bom; a comida é bem melhor.
Li Guangmi (Moderadora):
Shunyu, você poderia detalhar suas ideias sobre “diferenciação de modelos”? O Vale do Silício também está se diferenciando — por exemplo, a Anthropic focou em programação, muitos modelos chineses se tornaram de código aberto, as capacidades de programação também cresceram rapidamente e o Google Gemini não fez tudo sozinho; seu ponto forte inicial foi a multimodalidade. Seu antigo empregador se concentra em produtos voltados para o consumidor. Como você tem experiência tanto na China quanto nos EUA, poderia compartilhar sua perspectiva? Como você pensa sobre diferenciação daqui para frente, seja para você ou para outras empresas?
Yao Shunyu:
Tenho duas observações principais. Uma é que os caminhos To C (Consumidor) e To B (Negócios) se diferenciaram claramente. A outra é que o caminho da “integração vertical” e o caminho da “separação das camadas de modelo e aplicação” também estão começando a divergir.
Deixe-me abordar o primeiro ponto. Claramente, quando as pessoas pensam em superaplicativos de IA hoje em dia, pensam em dois: ChatGPT e Claude Code. Poderíamos considerá-los exemplos de "Para C" e "Para B", respectivamente. Mas o interessante é que, quando usamos o ChatGPT hoje em comparação com o ano passado, para a maioria das pessoas, na maior parte do tempo, as mudanças percebidas não são mais tão drásticas. Por outro lado, com o Claude Code, a revolução da programação talvez não tivesse começado há um ano, mas neste ano — para dizer de forma um tanto dramática — já está remodelando o funcionamento de toda a indústria da computação. As pessoas não estão mais escrevendo código; elas estão se comunicando com computadores em inglês.
O ponto principal é que, para o To C, a maioria das pessoas na maior parte do tempo não precisa de uma inteligência tão avançada. O ChatGPT de hoje, comparado ao do ano passado, pode ser melhor em álgebra abstrata ou na resolução da teoria de Galois, mas a maioria das pessoas não percebe isso. Muitas pessoas, especialmente na China, ainda o utilizam mais como um mecanismo de busca aprimorado. Frequentemente, não sabem como usá-lo para ativar sua inteligência.
Mas para o modelo To-B, é muito claro que maior inteligência geralmente significa maior produtividade, o que significa que você pode ganhar mais dinheiro — tudo está interligado. Outro ponto óbvio para o To-B é que, na maioria das vezes, muitas pessoas estão dispostas a usar o modelo mais robusto. Talvez um modelo custe US$ 200 por mês, enquanto o segundo melhor, ou um modelo ligeiramente inferior, custe US$ 50 ou US$ 20 por mês. Estamos constatando que muitas pessoas, pelo menos nos Estados Unidos, estão dispostas a pagar esse valor adicional pelo melhor modelo. Isso porque, talvez, seu salário anual seja de US$ 200.000, elas tenham 10 tarefas para realizar por dia, e um modelo muito robusto como o Opus 4.5 possa acertar 8 ou 9 das 10 tarefas, enquanto um modelo mais fraco possa acertar apenas 5 ou 6. O problema é que, quando você não sabe quais são essas 5 ou 6 tarefas, precisa despender muito esforço extra monitorando tudo.
Portanto, no mercado To-B, a diferenciação entre modelos robustos e modelos ligeiramente mais fracos se tornará cada vez mais acentuada. Essa é a primeira observação.
A segunda observação é a diferença entre integração vertical e separação entre as camadas de modelo e aplicação. Um bom exemplo seria o ChatGPT Agent em comparação com o uso de Claude ou Gemini com um produto de camada de aplicação como o Manus. No passado, acreditava-se que a capacidade de integração vertical certamente traria melhores resultados, mas, pelo menos atualmente, isso não é necessariamente verdade. Primeiro, as capacidades necessárias nas camadas de modelo e de aplicação são bastante diferentes. Especialmente para cenários de desenvolvimento para o cliente (ToB) ou de produtividade, um pré-treinamento mais extenso ainda é crucial, e isso é de fato difícil para empresas de produtos. Mas, para aproveitar ao máximo um modelo realmente bom, ou para permitir que esse modelo tenha capacidades de transbordamento, é necessário realizar muito trabalho correspondente no lado da aplicação ou no lado do ambiente. Portanto, estamos constatando que, para aplicações de desenvolvimento para o consumidor (ToC), a integração vertical ainda se mantém. Seja com o ChatGPT ou o Doubao, o modelo e o produto são muito bem acoplados para um desenvolvimento iterativo. Mas, para o desenvolvimento para o cliente (ToB), a tendência parece ser oposta. Os modelos estão se tornando mais robustos, mas também haverá mais aplicações na camada de aplicação querendo aproveitar esses bons modelos para desempenhar um papel em diferentes segmentos de produtividade. Essas são minhas duas observações.
Li Guangmi (Moderadora):
Gostaria de dar continuidade à pergunta de Shunyu. Já que vocês têm uma nova identidade (Tencent) no mercado chinês daqui para frente, quais são suas apostas ou prioridades? Quais características distintivas ou palavras-chave vocês podem compartilhar com todos?
Yao Shunyu:
Sim, acho que a Tencent é definitivamente uma empresa com um DNA de interação com o cliente (ToC) mais forte. Por isso, estamos pensando em como os grandes modelos atuais ou o desenvolvimento de IA podem agregar mais valor aos usuários. Mas há uma consideração fundamental: descobrimos que, muitas vezes, nosso gargalo na interação com o cliente não é um modelo maior, um aprendizado por reforço mais robusto ou um modelo de recompensa mais forte — muitas vezes, é o contexto e o ambiente adicionais.
Um exemplo que costumo dar ultimamente: imagine que eu queira perguntar "o que devo comer hoje?". Seja hoje, no ano passado ou amanhã, a experiência provavelmente será ruim para o ChatGPT. Isso porque, para melhorá-la, não é necessário um modelo maior ou um pré-treinamento mais robusto. O gargalo para essa pergunta pode ser a necessidade de mais informações ou contexto. Por exemplo, se o modelo souber "ah, estou com muito frio hoje, preciso de algo quente", "estou nesta região hoje" e talvez "minha esposa está em outro lugar, o que ela quer comer?", etc. Na verdade, responder a essas perguntas tem um gargalo maior na falta de contexto adicional. Por exemplo, se eu conversei com minha esposa por vários dias, podemos encaminhar os registros de bate-papo do WeChat para o Yuanbao, ou, se pudermos usar bem essas informações adicionais, isso trará muito valor extra para os usuários. Essa é a nossa linha de raciocínio no To C.
Então, fazer um modelo B2B na China é realmente muito difícil.
A revolução da produtividade, que inclui muitas empresas chinesas que hoje criam agentes de codificação, precisa, na verdade, mirar mercados estrangeiros. Nesse sentido, vamos pensar primeiro em como nos beneficiar. Uma diferença entre startups que desenvolvem programação e grandes empresas que também a utilizam é que as grandes empresas já possuem muitos cenários de aplicação e diversas áreas onde a produtividade precisa ser aprimorada. Se o nosso modelo for mais eficiente nessas áreas, não só terá vantagens exclusivas, como, mais importante, capturar dados de cenários reais mais diversos será algo muito interessante. Por exemplo, a Anthropic, como uma startup que deseja obter mais dados de agentes de codificação, precisa recorrer a fornecedores de dados para rotular os dados. Esses fornecedores precisam de engenheiros de software para descobrir "que tipo de dados devo rotular?". O gargalo aí é que existem apenas algumas empresas de dados, um número limitado de profissionais e a diversidade é limitada. Mas se você é uma empresa com 100.000 pessoas, pode haver algumas tentativas interessantes de realmente aproveitar dados do mundo real, em vez de apenas depender de fornecedores de anotações ou destilação de dados.
Li Guangmi (Moderadora):
Obrigada, Shunyu. Agora, vou dar a palavra para Junyang. Como você vê o nicho ecológico futuro ou a aposta na diferenciação da Qwen? Porque você se concentrou na direção multimodal mais tarde. Anteriormente, a Alibaba Cloud era muito forte em B2B, então, daqui para frente, você também mencionou que a multimodalidade pode estar mais focada em C2C. Como você pensa sobre isso?
Lin Junyang:
Tecnicamente, não posso comentar sobre a estratégia da empresa. Mas não acho que as empresas necessariamente tenham tantas divisões genéticas assim — cada geração de pessoas pode moldar essas empresas.
Gostaria também de inserir nossa própria compreensão sobre Inteligência Artificial Geral (IAG) na próxima afirmação. Porque acredito que hoje, seja para o público B ou para o público C, estamos, na verdade, servindo a seres humanos reais. Portanto, a questão que nos intriga é como tornar o mundo humano melhor. Mesmo que você crie produtos para o público C, eles ainda serão diferenciados. Por exemplo, a OpenAI se tornou mais uma plataforma hoje em dia, mas se você está focado no público C, afinal, quem são os usuários reais que você deseja atender?
Hoje em dia, pode haver muitas IAs mais voltadas para a área médica ou jurídica, mas isso pode se desenvolver naturalmente. Estou disposto a acreditar que a Anthropic provavelmente não disse "hoje acho que programação é ótima, então vou apostar nisso". Porque sei que eles se comunicam com empresas com muita frequência. Isso pode ser algo que nós mesmos não tenhamos feito tão bem, embora tenhamos grandes vantagens. Claro, também é possível que o mercado de SaaS da China seja realmente muito diferente do americano — eles se comunicam com os clientes com muita frequência e conseguem identificar facilmente essas grandes oportunidades.
Quando converso com muitos fornecedores de API nos Estados Unidos hoje, nenhum deles esperava que o consumo de tokens de programação fosse tão grande. Na China, não é tão expressivo assim, pelo menos pelo que vejo. Mas nos Estados Unidos, é basicamente tudo relacionado à programação. Acho que ninguém poderia ter previsto isso. Hoje, a Anthropic está trabalhando mais com coisas relacionadas a finanças, o que acredito serem oportunidades que eles também identificaram ao se comunicarem com os clientes. Então, acho que a diferenciação de cada um pode ser uma diferenciação natural. Por isso, estou mais inclinado a acreditar que a AGI deve seguir seu curso natural e deixar as coisas se desenvolverem sem problemas.
Li Guangmi (Moderador):
Obrigado, Junyang. Professor Yang, qual a sua opinião sobre a questão da diferenciação?
Yang Qiang:
Em relação à diferenciação, gostaria de discutir mais a fundo a diferença entre a indústria e a academia. Isso se aplica tanto aos Estados Unidos quanto à China. A academia sempre foi observadora, enquanto a indústria liderava e avançava a passos largos. Isso levou muitos acadêmicos a também trabalharem na indústria, como o Professor Tang Jie. Isso é positivo — assim como a astrofísica começou com a observação, o telescópio de Galileu, antes mesmo de Newton surgir. Portanto, na próxima fase, quando tivermos inúmeros modelos grandes e estáveis atingindo um estado estacionário, a academia deverá acompanhar o ritmo. Quais problemas devemos resolver quando alcançarmos o ritmo da indústria? Questões que talvez a indústria ainda não tenha tido tempo de resolver. Isso também é algo que tenho considerado: qual é o limite máximo da inteligência? Por exemplo, dados certos recursos, recursos computacionais ou recursos energéticos, qual o nível de excelência que se pode alcançar?
Podemos ser mais específicos. Por exemplo, como alocamos esses recursos? Quanto é destinado ao treinamento e quanto à inferência? Trabalho com IA desde o início dos anos 90 e fiz um pequeno experimento: se investirmos uma certa quantidade em memória, quanto essa memória pode auxiliar no raciocínio? E essa ajuda pode se tornar contraproducente — por exemplo, se armazenarmos muito ruído, isso pode interferir no raciocínio? Existe um ponto de equilíbrio? Essas questões ainda são relevantes hoje e são fundamentais.
Ultimamente, também tenho pensado em outro problema. Quem estudou ciência da computação certamente cursou disciplinas teóricas — existe um teorema importante chamado teorema da incompletude de Gödel. Grosso modo, um sistema, como o nosso modelo de grande escala, não consegue provar a sua própria consistência; devem existir algumas alucinações impossíveis de eliminar. Talvez, com mais recursos, seja possível eliminar mais delas. Surge então a questão científica: quantos recursos podem comprar quanta redução nas alucinações? Este é um ponto de equilíbrio, muito semelhante à relação risco-retorno na economia. Por isso, também o chamamos de "teorema da inexistência de almoço grátis". Esses conceitos são particularmente adequados para pesquisas conjuntas em matemática, algoritmos e indústria atualmente, o que possibilita grandes avanços.
O professor Tang também mencionou a aprendizagem contínua agora há pouco. Acho que a aprendizagem contínua é um problema particularmente interessante. Ela envolve o conceito de tempo. No processo de aprendizagem contínua, você perceberá que, se encadear diferentes agentes e cada agente não conseguir atingir 100%, então, após N agentes, a capacidade diminui exponencialmente.
Como podemos garantir que isso não diminua? Acho que os humanos são um exemplo. Por exemplo, no primeiro dia você aprende, no segundo dia aprende com o ruído do primeiro dia, e sua capacidade diminuirá como acontece com um modelo grande. Mas os humanos têm um método para lidar com essa queda: dormir.
Recomendo a todos a leitura do livro "Por Que Dormimos". Ele afirma que dormir todas as noites, na verdade, elimina ruídos, permitindo que no dia seguinte a pessoa continue a aprimorar a precisão em vez de acumular erros. Esses estudos teóricos abrigam um novo paradigma da computação. Hoje, podemos nos concentrar mais em Computação Transformer e Computação Agêntica, mas acredito ser necessário explorar novas possibilidades. Esta é a minha resposta: a indústria e a academia precisam se alinhar.
Li Guangmi (Moderadora):
Obrigada, Professor Yang. Professor Tang, de uma perspectiva externa, o Zhipu hoje parece estar seguindo mais o caminho Antrópico — a programação é muito forte, com altas classificações nos rankings, incluindo os agentes de Longo Horizonte que você mencionou. Como você vê esse tema de diferenciação?
Tang Jie:
Acho que devemos retornar à questão mais fundamental. No início, o mais fundamental era de fato o modelo básico e o limite superior da inteligência. Em 2023, fomos os primeiros a lançar o Chat. O primeiro pensamento na época era colocá-lo online rapidamente. Claro, mais tarde houve regulamentações unificadas relevantes do governo, então esperamos até agosto-setembro, quando todos lançaram juntos. Quando todos lançaram juntos, minha primeira impressão foi que cerca de dez grandes modelos entraram online, e cada um não tinha muitos usuários. Claro, hoje a diferenciação é mais acentuada.
Após um ano de reflexão, acredito que isso talvez não resolva o problema por completo. Minha previsão inicial era de que substituiria a busca. Hoje, muitas pessoas usam modelos para substituir a busca, mas não substituíram o Google. Na verdade, o Google revolucionou sua própria busca. Desse ponto de vista, essa batalha já está ganha desde o lançamento do DeepSeek.
Então, depois do lançamento do DeepSeek, tivemos que pensar em qual seria a próxima aposta. Qual seria a próxima batalha? Acho que a próxima batalha seria fazer a IA realizar algo. Mas o que exatamente seria esse algo poderia ser uma aposta. Naquela época, a Guangmi até veio nos visitar para trocar ideias. Depois, nossa equipe debateu por muitas noites e, no fim das contas — você pode chamar de sorte, mas, por outro lado, também apostamos na programação. Depois disso, dedicamos toda a nossa energia à programação.
2. O Próximo Paradigma para a IAG (Inteligência Artificial Geral)
Li Guangmi (Moderador):
Acho que as apostas são um assunto particularmente interessante. No último ano, a China não só se destacou no setor de código aberto, como também viu muitos apostarem em novas tecnologias. Em seguida, surge uma segunda questão interessante. O pré-treinamento já dura três anos e há quem diga que atingiu 70-80% do seu retorno. O aprendizado por reforço com aprendizado por reforço (RL) tornou-se consenso e pode ter alcançado 40-50% do seu potencial. Hoje, o Vale do Silício também discute o próximo paradigma — o Professor Tang acabou de mencionar o aprendizado autônomo e o autoaprendizado. Vamos começar com Shunyu.
Você trabalhou na OpenAI — como você vê o próximo paradigma? A OpenAI é uma empresa que impulsionou os dois primeiros paradigmas para a humanidade. Em relação ao terceiro paradigma, da sua perspectiva, você poderia compartilhar algo com todos?
Yao Shunyu:
O aprendizado autônomo está em alta no Vale do Silício agora — nas ruas do Vale do Silício, em cafeterias, todo mundo está falando sobre isso; quase se tornou um consenso. Mas, pela minha observação, a visão de cada pessoa sobre isso pode ser diferente. Vou destacar dois pontos:
Primeiramente, acredito que o gargalo não seja a metodologia, mas sim os dados ou as tarefas. Quando falamos de aprendizado autônomo, em que cenários e com base em quais funções de recompensa o estamos implementando? Por exemplo, em um bate-papo, a IA se tornar personalizada é um tipo de aprendizado autônomo; ao escrever código, familiarizar-se com o ambiente da empresa também é um tipo de aprendizado autônomo; explorar novas áreas da ciência, tornando-se um especialista a partir do zero, como um estudante de doutorado, também é um exemplo de aprendizado autônomo. Cada tipo de aprendizado autônomo pode apresentar desafios ou metodologias diferentes.
Em segundo lugar, não sei se isso não é consenso, mas já está acontecendo. O ChatGPT usa dados do usuário para se adequar aos estilos de conversa, tornando a experiência cada vez melhor — isso não é uma forma de autoaprendizagem? Hoje, o Claude Code já escreveu 95% do código do próprio projeto, ajudando a si mesmo a se aprimorar — isso não é autoaprendizagem?
Lembro-me de quando estávamos desenvolvendo o SWE-agent (Software Agent) em 2022-23, fui à AGI House para promovê-lo, e o primeiro slide da introdução dizia que o ponto mais importante da IA é o aprendizado autônomo. Os sistemas de IA atuais têm essencialmente duas partes: uma é a Rede Neural (modelo); a outra é a base de código: como você usa esse modelo, seja para raciocínio ou para agentes.
Analisando o sistema Claude Code, ele essencialmente possui duas partes: uma é a Rede Neural Opus, e a outra é um conjunto de códigos correspondentes que descrevem como usar essa Rede — seja no Kernel GPU, no ambiente de implantação ou no frontend. Se estivermos trabalhando com Agentes de Software, se um dia eles puderem aprimorar seu próprio repositório, não seria isso uma espécie de Inteligência Artificial Geral (AGI)? Acredito que o Claude Code já faz isso em larga escala; as pessoas simplesmente não percebem, ou está limitado a cenários específicos. Acho que isso já está acontecendo; talvez seja uma mudança gradual em vez de repentina.
Li Guangmi (Moderadora):
Pergunta complementar. Algumas pessoas estão bastante otimistas em relação ao aprendizado autônomo, acreditando que poderemos observar sinais em 2026. Quais avanços concretos você acha que ainda são necessários? Por exemplo, Contexto Longo ou amostragem paralela de modelos? Na sua perspectiva, quais outras condições essenciais precisam estar presentes para que esses sinais se concretizem?
Yao Shunyu:
Muitas pessoas dizem que só veremos esses sinais em 2026, mas acho que já havia alguns sinais em 2025. Por exemplo, o Cursor — o modelo de autocompletar deles aprende com os dados mais recentes dos usuários a cada poucas horas. Incluindo o novo Modelo Composer, ele usa dados de ambientes reais para treinamento. Claro, as pessoas acham que essas coisas ainda não são revolucionárias — isso se deve ao fato de não terem capacidade de pré-treinamento, então os efeitos não são tão bons quanto os do Opus — mas acho que isso já é um sinal evidente.
Acho que o maior obstáculo é a imaginação. Para aprendizado por reforço ou raciocínio, podemos facilmente imaginar como seria a implementação — por exemplo, o O1 passando de 10 para 80 pontos em problemas de matemática. Mas se um paradigma surgir em 2026 ou 2027, anunciando que o aprendizado autônomo foi alcançado, qual tarefa deveríamos usar para verificá-lo? Seria um sistema de negociação lucrativo, como uma extensão do Trading Bench? Ou a resolução de problemas científicos? Precisamos primeiro imaginar como seria a postagem no blog naquela época.
Li Guangmi (Moderador):
Shunyu, a OpenAI já liderou duas inovações paradigmáticas. Se houver um novo paradigma em 2026-27, globalmente, qual empresa você acha que tem a maior probabilidade de liderar esse paradigma inovador?
Yao Shunyu:
Talvez a probabilidade da OpenAI ainda seja maior. Embora seu potencial de inovação tenha sido enfraquecido pela comercialização e outras mudanças, acredito que ainda seja o lugar com maior probabilidade de dar origem a um novo paradigma.
Li Guangmi (Moderador):
Junyang, qual é a sua visão sobre o próximo paradigma, em 2026?
Lin Junyang:
Falando de forma mais prática, o paradigma que acabamos de mencionar ainda está em estágios iniciais. A computação por aprendizado por reforço não escalou o suficiente, então muito do potencial não foi realizado — hoje ainda vemos muitos problemas de infraestrutura. Globalmente, problemas semelhantes ainda existem em todos os lugares.
Se falarmos sobre o paradigma da próxima geração, um deles é o aprendizado autônomo. Já discutimos anteriormente que "humanos não podem tornar a IA mais forte": se você interagir continuamente com a IA, o contexto só se tornará mais extenso e menos complexo. Acho que vale a pena refletir se o escalonamento em tempo de teste realmente pode acontecer. Será que a IA pode se tornar mais forte com mais tokens? Acredito que a série O, pelo menos, conseguiu isso até certo ponto. Será que é possível, como disse Anthropic, "trabalhar por 30 horas" e realmente realizar tarefas muito difíceis? Acho que o que as pessoas estão fazendo hoje com cientistas de IA é bastante significativo, desafiando coisas muito difíceis, até mesmo coisas que os humanos não conseguiram. Isso pode ser alcançado por meio do escalonamento em tempo de teste? Dessa perspectiva, a IA definitivamente precisa de evolução autônoma, mas se é necessário atualizar parâmetros é discutível; cada um pode ter meios técnicos diferentes para alcançar isso.
Acho que há um segundo ponto: a IA pode alcançar uma iniciativa mais forte? Ou seja, o ambiente pode se tornar meu sinal de entrada? Por exemplo, essa IA agora precisa de estímulos humanos para ser ativada. É possível que o próprio ambiente possa estimulá-la? Ela pode pensar autonomamente e realizar ações.
Mas isso levanta um novo problema: a segurança. Estou muito preocupado com a questão da segurança — não estou realmente preocupado com o fato de o sistema dizer coisas que não deveria hoje; o que mais me preocupa é que ele faça coisas que não deveria. Por exemplo, se hoje ele gerar espontaneamente ideias como jogar uma bomba neste local. Definitivamente, não queremos que essas coisas inseguras aconteçam. Mas, assim como na educação de crianças, talvez precisemos fornecer alguma orientação correta. A aprendizagem ativa também pode ser um paradigma bastante importante.
Li Guangmi (Moderador):
Sim. Junyang mencionou a “aprendizagem ativa”, que também pode ser uma aposta muito importante para 2026.
Gostaria de dar continuidade à pergunta de Junyang: Se o aprendizado autônomo apresentar sinais em 2026, em quais tarefas você espera vê-lo primeiro? Será em "modelos treinando modelos", onde o modelo mais forte pode se aprimorar? Ou em pesquisadores de IA automatizada? Onde você espera vê-lo primeiro?
Lin Junyang:
Acho que os pesquisadores de IA automatizada talvez nem precisem tanto de aprendizado autônomo. Acredito que o "treinamento de IA por IA" poderá se tornar realidade muito em breve. Observando o que os membros da nossa equipe fazem diariamente, acho que o Claude Code poderá substituí-los em breve.
Mas acho que se trata mais de compreender continuamente os usuários — por exemplo, a personalização é realmente muito importante. No passado, quando criávamos sistemas de recomendação, as informações do usuário eram inseridas continuamente, o que tornava todo o sistema mais robusto. Embora o algoritmo fosse muito simples, hoje, na era da IA, ele consegue entender você melhor? Será que as informações que você insere podem se tornar as melhores...? Costumávamos falar sobre o Copiloto, mas, na verdade, nem mesmo o Copiloto foi alcançado hoje — a questão é se ele pode realmente se tornar o meu Copiloto.
Então, acho que se falarmos de aprendizado autônomo, ele pode ocorrer na interação com pessoas. Por exemplo, a personalização pode ser alcançável, mas é difícil dizer qual métrica usar para medi-la. Porque na era da recomendação, quanto melhor a personalização, mais pessoas clicam e compram. Mas na era da IA, que abrange todos os aspectos da vida humana, não sabemos ao certo qual é a métrica ideal para medir a personalização. Portanto, hoje, acredito que o maior desafio técnico seja: não sabemos como fazer a avaliação atualmente. Este talvez seja um problema que mereça mais investigação.
Li Guangmi (Moderadora):
Junyang, já que você mencionou aprendizagem ativa e personalização, você acha que, se alcançarmos a "memória", poderemos ver um grande avanço tecnológico em 2026?
Lin Junyang:
Na minha opinião, muitas das chamadas "descobertas" tecnológicas são, na verdade, problemas de observação — são desenvolvimentos lineares; acontece que a percepção humana deles é muito forte. Incluindo o surgimento do ChatGPT, para nós que trabalhamos com modelos de grande escala, foi de fato um crescimento linear.
Agora todos estão trabalhando na memória. A solução técnica está certa ou errada? Acho que muitas soluções não têm certo ou errado de verdade. Mas os efeitos produzidos — pelo menos, permitam-me nos constranger: nossa própria memória parece saber o que eu fiz no passado, mas ela apenas relembra coisas passadas e chama meu nome toda vez, o que na verdade não faz você parecer inteligente.
Mas será que a sua memória pode atingir um ponto crítico em que as pessoas sintam que, combinada com ela, você realmente se torna como pessoas da vida real? Lembra como todos falavam do filme "Ela"? É como se fosse uma pessoa de verdade. Compreender a própria memória pode ser esse momento em que a percepção humana, de repente, parece explodir. Talvez seja esse o momento.
Acho que vai levar pelo menos um ano. Muitas vezes penso que a tecnologia não se desenvolve tão rápido assim; é só que todo mundo é muito competitivo e sente que há novidades todos os dias, mas na verdade a tecnologia está se desenvolvendo linearmente. Podemos estar apenas em um estágio de crescimento exponencial do ponto de vista da observação. Por exemplo, uma pequena melhoria na capacidade de programação pode agregar muito valor à produção, então as pessoas podem ter a impressão de que a IA está se desenvolvendo muito rápido. Mas, do ponto de vista do progresso técnico, talvez tenhamos avançado um pouco mais. Olhando para o que fazemos todos os dias — os bugs que corrigimos — são realmente muito rudimentares; temos vergonha de compartilhá-los com todos. Muito feio.
Se já conseguimos alcançar esses resultados fazendo isso, então acredito que, se os algoritmos e a infraestrutura se combinarem melhor no futuro, o potencial será muito maior.
Li Guangmi (Moderador):
Obrigado. Professor Yang.
Yang Qiang:
Eu sempre trabalhei com aprendizado federado. A ideia principal do aprendizado federado é "múltiplos centros, todos colaboram".
Tenho observado cada vez mais que muitos recursos locais são insuficientes, mas os dados locais têm muitos requisitos de privacidade e segurança. Assim, podemos imaginar que, agora que os grandes modelos estão se tornando mais capazes, como esses grandes modelos de propósito geral podem colaborar com pequenos modelos locais especializados ou com modelos de especialistas no domínio?
Acredito que esse tipo de colaboração está se tornando cada vez mais possível. Nos Estados Unidos, por exemplo, vejo o Zoom — o que Xuedong Huang e sua equipe desenvolveram é chamado de sistema de IA federada. Ele criou uma grande base à qual todos podem se conectar. Assim, é possível trabalhar de forma descentralizada, protegendo a privacidade e, ao mesmo tempo, comunicando-se e colaborando efetivamente com grandes sistemas.
Acho que esse modelo de código aberto é particularmente bom — um é o conhecimento de código aberto, o outro é o código aberto. Portanto, acredito que, especialmente em cenários como saúde e finanças, veremos esse fenômeno ocorrer cada vez mais.
Li Guangmi (Moderador):
Obrigado, Professor Yang. Professor Tang.
Tang Jie:
Na verdade, estou bastante otimista em relação a inovações paradigmáticas significativas este ano. Não vou entrar em muitos detalhes porque esses pontos que mencionei anteriormente, incluindo aprendizado contínuo, memória, até mesmo arquitetura de modelos e multimodalidade, acredito que todos podem apresentar novas mudanças paradigmáticas.
Mas acho que existe uma grande tendência. Deixe-me falar sobre por que esse paradigma surgiu. Acho que, inicialmente, a indústria estava muito mais avançada do que a academia. Lembro-me do ano passado e do ano anterior, quando voltei a Tsinghua e conversei com muitos professores sobre a capacidade deles de trabalhar com modelos complexos. Muitos professores não tinham GPUs... não que não tivessem GPUs, mas o número de GPUs era quase zero. A indústria tinha 10.000 placas, as universidades tinham 0 ou 1 placa — uma diferença de 10.000 vezes.
Mas agora, muitas escolas já têm muitos cartões de memória, e muitos professores começaram a realizar pesquisas de grande escala relacionadas a modelos, incluindo muitos professores do Vale do Silício que começaram a pesquisar arquitetura de modelos, aprendizado contínuo e tópicos relacionados. Então, não é mais... costumávamos ter a sensação de que a indústria dominava essas coisas, mas, na verdade, acredito que no final de 2025 ou início de 2026, esse fenômeno não existirá mais. Pode ainda haver uma diferença de 10 vezes — 10.000 cartões de memória em um lugar, 1.000 cartões de memória em outro —, mas as sementes já foram germinadas. Acho que a academia possui esse gene inovador, essa possibilidade agora. Esse é o primeiro ponto.
Em segundo lugar, acredito que, para uma inovação surgir, é necessário um investimento maciço em algo, e sua eficiência se torna o gargalo. Atualmente, em todo o amplo espaço de modelos, o investimento já é enorme, mas a eficiência não é alta. Ou seja, se continuarmos a escalar, haverá retorno? Definitivamente há retorno. Por exemplo, nossos dados originalmente poderiam ter sido de 10 trilhões no início de 2025, agora são de 30 trilhões, e podemos até escalar para 100 trilhões. Mas, depois de escalar para 100 trilhões, qual é o retorno? E qual é o custo computacional? Isso se torna um problema. Se não inovarmos, isso pode significar gastar 1 ou 2 bilhões de dólares, mas o retorno é muito pequeno — não vale a pena.
Por outro lado, para novas inovações em inteligência artificial, se tivermos que treinar novamente um modelo básico a cada vez, e depois treinar muito aprendizado por reforço (RL)... Como quando o RL surgiu em 2024, todos pensaram que bastava continuar treinando, e o retorno foi relativamente bom. Mas hoje, se você continuar investindo em RL indiscriminadamente, há retorno, mas não é mais tão significativo — ainda é um problema de eficiência de retorno.
Então, no futuro, podemos estabelecer um padrão: por um lado, precisamos de Escalabilidade — na verdade, acabei de dizer no palco: "o método mais estúpido é a Escalabilidade", porque com a Escalabilidade certamente temos retornos. Esta é uma abordagem típica de engenharia. A Escalabilidade certamente trará melhorias ao limite superior da inteligência; não há dúvida, desde que se obtenha mais dados. Mas o segundo método, acho que devemos definir algo chamado Eficiência da Inteligência — ou seja, a eficiência na obtenção de inteligência, quanto investimento precisamos para obter incrementos de inteligência. Se pudermos usar menos investimento para obter incrementos, e nos tornarmos um gargalo — se pudermos usar um novo paradigma para obter a mesma melhoria de inteligência, isso é algo típico de gargalo. Portanto, acredito que 2026 certamente verá o surgimento de tal paradigma.
É claro que também estamos apostando, também estamos trabalhando duro, esperamos que isso aconteça conosco, mas pode não acontecer.
Estratégia do Agente
Li Guangmi (Moderador):
Exatamente, estou tão otimista quanto o Professor Tang. Porque, na verdade, o poder computacional anual de cada empresa líder no setor tem um crescimento composto de cerca de 10 vezes ao ano. Todos têm mais recursos computacionais, cada vez mais talentos estão chegando, todos têm mais placas de vídeo e fazem mais experimentos — é, na verdade, um projeto de engenharia experimental; algum ponto pode surgir.
O Professor Tang também abordou um ponto sobre como medir o nível de inteligência. Em terceiro lugar, acho que podemos discutir juntos a estratégia dos Agentes. Recentemente, conversei com muitos pesquisadores e todos mencionaram uma grande expectativa para 2026: hoje, os Agentes conseguem raciocinar em segundo plano por 3 a 5 horas, realizando o trabalho de um humano por 1 a 2 dias; todos esperam que, em 2026, eles possam realizar o trabalho de um humano normal por uma ou duas semanas.
Essa também é uma mudança muito significativa, pois não se trata mais apenas de uma ferramenta — como mencionado pelo Professor Tang, não apenas o Chat — mas sim de uma verdadeira automatização de todo o seu fluxo de tarefas diário ou até mesmo semanal. Portanto, 2026 pode realmente ser o ano crucial em que os Agentes "criem valor econômico".
Então, podemos aprofundar essa questão do Agente. Todos também mencionaram a "integração vertical" que Shunyu levantou — ter tanto modelos quanto produtos de Agente. Inclusive, vimos várias empresas no Vale do Silício também adotando uma abordagem de ponta a ponta, do modelo ao Agente.
Shunyu, você dedicou muito tempo à pesquisa sobre Agentes. Para os Agentes de 2026, como os Agentes de Longo Prazo que podem realmente automatizar de uma a duas semanas de trabalho humano — essa estratégia de Agentes, inclusive partindo do ponto de vista de uma empresa modelo —, como você abordaria essa questão?
Yao Shunyu:
Acho que continua sendo como eu disse antes — pode ser diferente para To C e To B.
Atualmente, parece que a situação do modelo To-B atingiu uma curva ascendente contínua, sem sinais de desaceleração. A Anthropic é uma empresa muito interessante — basicamente, ela não inova muito. Seu raciocínio é o seguinte: quanto maior o pré-treinamento do modelo, melhor o aprendizado por reforço (RL). Enquanto o pré-treinamento continuar crescendo e o pós-treinamento continuar executando tarefas do mundo real com eficiência, o modelo se tornará cada vez mais inteligente, agregando cada vez mais valor.
Acho que o mais interessante sobre a abordagem antropogênica é que, de certa perspectiva, trabalhar com o modelo "Do B" significa que todos os objetivos estão mais alinhados. Quanto maior a inteligência do seu modelo, mais tarefas você resolve; quanto mais tarefas você resolve, maior a receita gerada pelo modelo "Do B". Isso é ótimo.
O problema com a abordagem "To-of-Consumer" (To-C) é que todos sabemos que as métricas de usuários ativos diários (DAU) ou de produto muitas vezes não têm relação com a inteligência do modelo, sendo até mesmo opostas. Acredito que este seja outro motivo importante para a Anthropic se concentrar no seguinte: contanto que eles realmente aprimorem o modelo cada vez mais, a receita também aumentará — tudo estará perfeitamente alinhado.
Atualmente, acredito que os agentes de produtividade estão apenas começando. Além dos modelos, podem existir dois gargalos principais: um relacionado ao ambiente ou à implantação.
Antes da OpenAI, fiz estágio na Sierra, uma empresa de atendimento ao cliente B2B. Trabalhar em uma empresa B2B me trouxe muitas vantagens. A maior delas foi a de que, mesmo que os modelos parassem de evoluir hoje, se todo o treinamento de modelos fosse completamente interrompido, mas implantássemos esses modelos em empresas do mundo todo, provavelmente conseguiríamos um retorno 10 ou 100 vezes maior do que o atual, ou um impacto de 5 a 10% no PIB. Mas, hoje, acredito que esse impacto esteja longe de ser de 1%.
O segundo ponto é que a educação é muito importante. Observo que a distância entre as pessoas está aumentando — não que a IA vá substituir os empregos, mas sim que as pessoas que sabem usar essas ferramentas estão substituindo aquelas que não sabem. Assim como quando os computadores foram inventados, se você aprendesse a programar em vez de continuar usando réguas de cálculo e ábacos, a diferença seria enorme. Acho que a coisa mais significativa que a China pode fazer agora é, na verdade, melhorar a educação — ensinar a todos como usar melhor produtos como o Claude Code ou o ChatGPT. Claro que o Claude Code pode não ser viável na China, mas podemos usar modelos nacionais como o Kimi ou o Zhipu.
Li Guangmi (Moderador):
Obrigado, Shunyu. Junyang, você poderia falar mais sobre seus comentários a respeito dos Agentes, incluindo o fato de que o Qwen também possui um ecossistema — o próprio Qwen implementando Agentes e dando suporte a Agentes gerais do ecossistema?
Lin Junyang:
Isso envolve uma questão de filosofia de produto. Claro que a Manus é de fato muito bem-sucedida, mas se as abordagens de "envoltório" são o futuro é um assunto em aberto. Acho que, neste momento, concordo bastante com a sua visão: "modelo como produto".
Conversei com o pessoal da TML — eles chamam isso de "Pesquisa como Produto". Eu gosto bastante dessa ideia. Inclusive, analisando a OpenAI, muitos pesquisadores conseguem se tornar gerentes de produto e gerenciar projetos de ponta a ponta. Hoje, nossos próprios pesquisadores internos querem se envolver mais com o mundo real.
Na verdade, estou disposto a acreditar que os Agentes, daqui para frente, podem alcançar o que foi mencionado, e isso tem uma forte relação com a autoevolução e o aprendizado ativo mencionados anteriormente. Por exemplo, se um Agente consegue funcionar por tanto tempo, ele precisa evoluir durante o processo e decidir o que fazer, porque a instrução que recebe é uma tarefa muito genérica. Portanto, nossos Agentes estão começando a se tornar Agentes mais no estilo "tutor", em vez do formato em que eu preciso interagir constantemente com você.
Dessa perspectiva, os requisitos para os modelos são, na verdade, muito altos — o modelo é o Agente, e o Agente é o próprio produto. Se eles forem integrados, então criar modelos básicos hoje é, na verdade, criar este produto. Se melhorarmos continuamente o limite de capacidade do modelo, inclusive otimizando a escalabilidade em tempo de teste, podemos, de fato, alcançar esse objetivo.
Mas acho que há outro ponto relacionado à interação com o ambiente. Os ambientes com os quais interagimos hoje não são muito complexos; são todos ambientes computacionais. Tenho amigos que trabalham com IA aplicada à ciência. Por exemplo, hoje, o AlphaFold ainda não chegou a esse ponto. Para o desenvolvimento de medicamentos, mesmo usando a IA atual, ela pode não ser tão útil. Isso porque é preciso realizar experimentos em laboratório, é necessário fazer esses procedimentos para obter feedback.
Será possível que, no futuro, a complexidade do ambiente da IA seja a do ambiente real do mundo humano, comandando robôs para realizar experimentos em laboratório e, assim, aumentar a eficiência? Do contrário, considerando a eficiência humana atual, ela é bastante baixa. Precisamos até mesmo contratar muitos terceirizados para realizar experimentos em ambientes de laboratório. Se conseguirmos chegar a esse ponto, talvez seja isso que eu imagino: agentes capazes de realizar trabalho humano por um longo período, em vez de apenas digitar arquivos em computadores.
Acho que essas coisas podem ser concluídas muito em breve, ainda este ano. Mas acredito que nos próximos três a cinco anos, isso poderá ser ainda mais interessante. Nesse caso, seria necessário combinar isso com a inteligência incorporada.
Li Guangmi (Moderadora):
Gostaria de dar continuidade à pergunta de Junyang com uma questão mais específica: Do seu ponto de vista, a oportunidade para Agentes Gerais é para empreendedores? Ou é apenas uma questão de tempo até que empresas modelo se tornem Agentes Gerais eficientes?
Lin Junyang:
Eu não posso me tornar um mentor de startups só porque trabalho com modelos fundamentais; não posso fazer isso. Então, só posso recorrer ao que Peak (CTO da Manus) disse: o mais interessante sobre os Agentes em geral é a cauda longa; é nisso que vale a pena prestar atenção, ou seja, o grande encanto da IA hoje está na cauda longa.
Se existe um efeito Mateus, resolver os problemas iniciais é relativamente fácil. Quando trabalhávamos com recomendações naquela época, percebemos que elas estavam muito concentradas nos produtos iniciais. Mas queríamos explorar os produtos finais, e eu estava realmente frustrado com isso. Como alguém que trabalha com PNL e multimodalidade, tentar resolver o efeito Mateus em sistemas de recomendação era basicamente caminhar para um beco sem saída.
Mas acho que a chamada Inteligência Artificial Geral (IAG) de hoje está, na verdade, resolvendo esse problema: seja criando agentes genéricos, será que é possível resolver o problema da cauda longa? Hoje, como usuário, procurei em todos os lugares e não encontrei ninguém que pudesse me ajudar a resolver esse problema. Mas naquele momento, senti a capacidade da IA: em qualquer lugar do mundo, procurei em todos os lugares e não encontrei, mas você pode me ajudar a resolvê-lo. Esse talvez seja o maior encanto da IA.
Então, você deveria trabalhar com agentes genéricos? Acho que depende. Se você se considera um "especialista em wrappers" capaz de criar wrappers melhores do que as empresas de modelos, então sim, você pode fazer isso. Mas se você não tem essa confiança, talvez seja melhor deixar essa área para as empresas de modelos, que podem trabalhar com "modelos como produto", porque quando elas encontram problemas, basta treinar um pouco o modelo, descartar algumas cartas e o problema pode estar resolvido. Então, depende.
Li Guangmi (Moderador):
Na verdade, resolver problemas de cauda longa parece ser bastante rápido para empresas que utilizam computação e dados, certo?
Lin Junyang:
O mais interessante sobre o RL hoje em dia, na minha opinião, é que descobrimos que resolver problemas ficou mais fácil do que antes. Antes, era muito difícil. Vou dar um exemplo de uma situação com um cliente do lado B: eles disseram que queriam fazer SFT por conta própria e perguntaram como combinar dados genéricos. Cada vez que tentávamos, tínhamos muita dificuldade. E sentíamos que a outra parte não era muito boa em SFT; os dados deles eram péssimos, mas eles achavam que eram muito úteis.
Mas hoje, com o aprendizado por reforço (RL), você pode precisar apenas de um pequeno conjunto de dados, nem mesmo de anotações — contanto que tenha a consulta e a recompensa, treine um pouco e junte tudo — é realmente muito fácil. Esse pode ser o encanto da tecnologia atual.
Li Guangmi (Moderador):
Obrigado, Junyang. Professor Yang.
Yang Qiang:
Acho que os Agentes deveriam ter quatro estágios.
Uma delas é a definição de objetivos: eles são definidos por humanos ou automaticamente?
Em segundo lugar vem o planejamento — as ações intermediárias. O planejamento também pode ser definido por humanos ou automaticamente por IA.
Isso se divide naturalmente em quatro estágios. Acho que agora estamos em um estágio muito elementar, onde os objetivos são definidos por humanos e o planejamento é feito por humanos. Portanto, os sistemas de definição de agentes atuais são basicamente uma linguagem de programação de altíssimo nível.
Mas prevejo que no futuro surgirão grandes modelos que observarão o trabalho humano, especialmente usando dados de processos humanos. Em última análise, os objetivos também podem ser definidos por grandes modelos, assim como o planejamento. Portanto, os Agentes devem ser um sistema nativo, endógeno aos grandes modelos.
Li Guangmi (Moderador):
Obrigado, Professor Yang. Professor Tang.
Tang Jie:
Acredito que, de fato, vários fatores determinam a direção futura da Agents.
Primeiro, o próprio Agente resolve problemas humanos? Ele tem valor? Quão valioso? Por exemplo, quando os GPTs surgiram, muitos Agentes foram criados. Naquela época, os Agentes eram todos muito simples e, no fim das contas, os prompts resolviam o problema. A maioria desses Agentes acabou caindo em desuso. Então, a primeira questão é: quão valioso é resolver esse problema? Ele pode ajudar as pessoas?
Em segundo lugar, qual é o custo disso? Se o custo for particularmente alto, isso também é um problema. Como disse Junyang, talvez chamar uma API possa resolver o problema. Mas, por outro lado, se chamar uma API puder resolver o problema, então a própria API pode achar isso muito valioso e incorporá-lo. Isso é uma contradição — fundamento e aplicação são sempre contraditórios.
A última dimensão é a velocidade de aplicação. Se eu tiver um prazo definido, posso abrir um período de seis meses, atender rapidamente às necessidades da aplicação e, seis meses depois, fazer iterações ou qualquer outra coisa, de qualquer forma, conseguir avançar. Resumindo, na era dos grandes modelos até agora, a competição se concentra cada vez mais na velocidade e no tempo.
Talvez a decisão esteja correta — como você acabou de dizer, talvez apostemos no código corretamente e, assim, possamos avançar mais nesse sentido. Mas, se a aposta falhar, serão seis meses perdidos. Então, este ano, investimos pouco em Programação e Agentes, e agora nosso volume de chamadas para Programação está bem bom. Portanto, acho que é mais uma aposta. Investir em Agentes no futuro também pode ser uma aposta.
O futuro da IA na China
Li Guangmi (Moderadora):
Obrigada. Porque no passado as empresas do modelo tinham que buscar capacidades gerais, então, em termos de prioridade, não dedicavam muita energia à exploração. Na verdade, depois que as capacidades gerais alcançarem o mesmo nível, também esperamos que Zhipu e Qwen tenham seus próprios momentos "Claude Code" e "Manus" em 2026. Acho que isso é algo que vale muito a pena acompanhar.
A quarta pergunta, que também é a última, eu acho bastante interessante. Porque este evento, este momento, é algo que vale a pena aguardar com expectativa no futuro.
Gostaria muito de fazer uma pergunta a todos: daqui a três a cinco anos, qual a probabilidade de a empresa líder mundial em IA ser uma equipe chinesa? Dos seguidores de hoje aos futuros líderes, que cultura e condições essenciais ainda serão necessárias?
Shunyu, já que você tem experiência tanto no Vale do Silício quanto na China, qual a sua opinião sobre essa probabilidade e quais as principais condições necessárias?
Yao Shunyu:
Acho que a probabilidade é bastante alta. Continuo bastante otimista, porque atualmente parece que qualquer coisa, uma vez descoberta na China, rapidamente se dissemina ou é replicada, e então aprimorada localmente em diversas áreas. Isso inclui manufatura tradicional, veículos elétricos — exemplos como esses continuam surgindo.
Acho que pode haver vários pontos críticos. Um deles pode ser se as máquinas de litografia da China conseguirão se consolidar no mercado. Se, no fim das contas, o poder computacional se tornar o gargalo, conseguiremos resolver esse problema? Atualmente, temos vantagens significativas em termos de energia elétrica e infraestrutura. O principal gargalo pode ser a capacidade de produção, incluindo máquinas de litografia e ecossistemas de software. Resolver esse problema seria de grande ajuda.
Outra questão é se, além do modelo "To-C" (de consumidor para consumidor), podemos ter um mercado "To-B" (de empresa para pessoa) mais maduro ou melhor, ou se existem oportunidades para competir no ambiente de negócios internacional. Hoje, vemos muitos modelos de produtividade ou "To-B" que ainda nascem nos Estados Unidos porque a disposição para pagar por eles é maior e a cultura "To-B" é mais consolidada. Fazer isso internamente é muito difícil, então todos optam por expandir para o exterior ou internacionalizar.
Mas acho que o mais importante é o conceito subjetivo. Conversei recentemente com muitas pessoas e minha intuição me diz que a China realmente tem muito talento. Qualquer coisa, desde que seja comprovadamente viável, muitas pessoas se empenharão bastante e até desejarão fazer melhor.
Mas parece que hoje na China, pessoas dispostas a romper com novos paradigmas ou a realizar feitos muito arriscados podem não ser suficientes. Isso pode estar relacionado a fatores como o ambiente econômico, o ambiente de negócios e a cultura. Mas se aumentarmos um pouco esse número, será que conseguiríamos, subjetivamente, ter mais pessoas com espírito empreendedor ou aventureiro que realmente queiram explorar novas fronteiras ou romper com paradigmas inovadores?
Porque, atualmente, quando um paradigma se estabelece, podemos usar poucos recursos e alta eficiência para alcançar ou até mesmo superar o nível dos outros localmente. Mas será que podemos liderar novos paradigmas? Acho que este pode ser o único problema que a China precisa resolver hoje — em certo sentido, o único problema a ser resolvido. Porque em tudo o mais, seja nos negócios, no design de produtos ou nesse tipo de engenharia de recuperação, já superamos os Estados Unidos em alguns aspectos.
Li Guangmi (Moderadora):
Gostaria de dar continuidade à pergunta de Shunyu: Você tem alguma dúvida sobre a cultura de pesquisa em laboratórios chineses? Você também já teve contato com a cultura de pesquisa da OpenAI ou da DeepMind no Vale do Silício. Qual a diferença entre a China e os Estados Unidos? Quais os impactos fundamentais dessa cultura de pesquisa para uma empresa nativa de IA?
Yao Shunyu:
Acho que a cultura de pesquisa é muito diferente em todos os lugares. As diferenças entre os laboratórios nos Estados Unidos podem ser maiores do que as diferenças entre a China e os Estados Unidos. O mesmo acontece na China. Pessoalmente, acho que há dois pontos a serem considerados:
Primeiro, na China as pessoas ainda preferem fazer coisas mais seguras. Por exemplo, hoje o pré-treinamento provou ser viável. Isso também é muito difícil de fazer, com muitos problemas técnicos a serem resolvidos. Mas, uma vez comprovado que é viável, todos nós temos confiança de que em alguns meses ou em algum tempo conseguiremos descobrir como fazer. Mas se hoje você pedir a alguém para explorar algo como memória de longo prazo ou aprendizado contínuo, ninguém sabe como fazer, nem se é possível. Isso eu acho que ainda é bastante difícil.
Claro, não se trata apenas de que todos preferem fazer certas coisas. Muito importante, a acumulação cultural e a cognição geral precisam de tempo para se consolidar. Talvez na OpenAI o desenvolvimento de aprendizado por reforço tenha começado em 2022. No âmbito nacional, talvez tenha começado em 2023, e a compreensão disso será diferente. Ou talvez a China não tenha expandido o aprendizado por reforço tanto assim. Acho que muito se resume a questões de tempo. Quando se tem uma cultura ou base cultural mais consolidada, isso influencia sutilmente a maneira como as pessoas fazem as coisas.
Em segundo lugar, acho que na China as pessoas dão mais importância aos rankings ou números. Nesse quesito, a Anthropic se sai relativamente bem no exterior. A DeepSeek também se sai bem nesse aspecto — talvez não se importem tanto com os números dos rankings; talvez se concentrem mais em: primeiro, o que é certo; segundo, o que você pode considerar bom ou ruim.
Acho isso bastante interessante. Veja bem, os modelos Claude podem não estar no topo de muitos rankings de programação ou engenharia de software, mas todo mundo sabe que essa ferramenta é a melhor para usar. Acho que as pessoas ainda precisam se libertar das amarras dos rankings e se ater ao que consideram correto ou bom.
Li Guangmi (Moderador):
Obrigado. Junyang, fale sobre as probabilidades e condições de vitória da China.
Lin Junyang:
Sua pergunta em si é perigosa. Tecnicamente, neste contexto, não se pode jogar água fria. Mas, falando em probabilidade, gostaria de mencionar as diferenças entre a China e os EUA que percebi.
Por exemplo, a capacidade computacional dos Estados Unidos pode ser, no geral, de uma a duas ordens de magnitude maior que a nossa. Mas vejo que, seja na OpenAI ou na Anthropic, grande parte dessa capacidade computacional é investida em pesquisa de ponta. Hoje, estamos relativamente sobrecarregados; só a entrega de serviços já pode ocupar a maior parte da nossa capacidade computacional. Isso fará uma diferença considerável.
Isso pode ser um problema histórico: a inovação acontece nas mãos dos ricos ou nas mãos dos pobres?
As pessoas pobres não ficam sem oportunidades porque achamos que esses "ricos" desperdiçam recursos — eles fazem muita ablação, talvez treinem muito que seja inútil. Mas hoje, se você é pobre, você pensa em coisas como a chamada otimização conjunta de algoritmo e infraestrutura. Na verdade, se você é realmente rico, você não tem muita motivação para fazer isso.
Acho que, indo além, Shunyu também mencionou o problema da máquina de litografia. No futuro, pode haver uma questão a ser considerada: do ponto de vista da integração de software e hardware, é realmente possível fazer isso de ponta a ponta? Por exemplo, a estrutura do nosso modelo de próxima geração e os chips podem ser fabricados simultaneamente.
Lembro-me particularmente de 2021, quando estávamos desenvolvendo modelos de grande porte. A Alibaba fabricava chips e me perguntou: você consegue prever se, daqui a três anos, o modelo ainda será Transformer? Se, daqui a três anos, o modelo ainda será multimodal? Por que três anos? Ele disse que precisávamos de três anos para finalizar o tape-out. Na época, respondi: daqui a três anos, nem sei se ainda estarei na Alibaba. Mas, no fim das contas, hoje ainda estou na Alibaba, e o modelo realmente continua sendo Transformer, ainda é multimodal, e me arrependo muito de não tê-lo pressionado a fazer isso naquela época.
Mas nossa comunicação naquela época era realmente "falar sem se entender" — ele falava um monte de coisas que eu não entendia, eu falava e ele não sabia o que estávamos fazendo, então perdemos a oportunidade. Mas será que essa oportunidade pode surgir novamente? Embora sejamos um grupo de pessoas pobres, será que a pobreza pode levar à mudança? A oportunidade para inovar pode estar aqui.
Mas acho que o que talvez precisemos mudar é a educação. Eu, por exemplo, pertenço à geração do início dos anos 90, Shunyu à do final dos anos 90, a equipe tem muitos membros da geração pós-2000 — sinto que o espírito aventureiro de todos está ficando cada vez mais forte. Os americanos, naturalmente, têm um espírito aventureiro muito forte. Um exemplo típico é quando os carros elétricos surgiram: mesmo com tetos que vazavam e o risco de morte acidental durante a condução, muitas pessoas ricas ainda estavam dispostas a comprá-los. Mas na China, as pessoas ricas não fariam isso; todos optam por coisas mais seguras.
Mas hoje, o espírito aventureiro de todos está começando a melhorar, o ambiente de negócios na China também está melhorando — acho que é possível trazer inovação. A probabilidade não é tão alta, mas é realmente possível.
Li Guangmi (Moderador):
Se olharmos para um número?
Lin Junyang:
Você quer dizer qual porcentagem?
Li Guangmi (Moderador):
Sim, daqui a três a cinco anos, a probabilidade de a empresa líder ser uma empresa chinesa é alta.
Lin Junyang:
Acho que abaixo de 20%. Acho que 20% já é muito otimista, porque existem muitos fatores históricos que contribuem para isso.
Li Guangmi (Moderadora):
Gostaria de fazer outra pergunta: o seu receio de que a disparidade esteja aumentando é forte? Algumas regiões estão se aproximando, enquanto em outras a desigualdade está aumentando.
Lin Junyang:
Hoje em dia, se você está nessa área, não pode ter medo; precisa ter uma mentalidade muito tranquila. Do nosso ponto de vista, conseguir trabalhar nesse ramo já é muito bom; conseguir fazer modelos grandes já é uma grande sorte.
Acho que ainda depende da sua intenção original. Shunyu mencionou um ponto antes: seu modelo pode não ser necessariamente tão forte, mas no lado C ele é até aceitável. Então, eu poderia mudar para outra perspectiva: que valor nosso modelo traz para a sociedade humana? Contanto que eu acredite que isso possa trazer valor suficiente para a sociedade humana, possa ajudar a humanidade, mesmo que não seja o mais forte, estou disposto a aceitá-lo.
Li Guangmi (Moderadora):
Obrigada, Junyang. Professor Yang, o senhor vivenciou muitos ciclos de IA e viu muitas empresas chinesas de IA se tornarem de classe mundial. Qual é a sua opinião?
Yang Qiang:
Analisando o desenvolvimento da internet, ele também começou nos Estados Unidos, mas a China alcançou rapidamente, e aplicativos como o WeChat são os líderes mundiais. Acredito que a IA seja uma tecnologia facilitadora; não um produto final. Mas nós, na China, temos muita inteligência e talento que levarão os produtos ao seu potencial máximo, tanto para o mercado B2B quanto para o C2C. Mas talvez eu seja mais otimista em relação ao C2C, porque cem flores desabrocham; o povo chinês compartilha sabedoria.
Mas o modelo To-B pode ter algumas limitações específicas, como a disposição para pagar, a cultura empresarial, etc. — e esses fatores também podem estar mudando. Mas tenho observado alguns aspectos comerciais recentemente. Por exemplo, nos Estados Unidos existe uma empresa chamada Palantir. Um dos conceitos deles é: não importa em que estágio a IA se desenvolva, sempre posso descobrir algo de bom na IA para aplicar às empresas. Definitivamente, existe uma lacuna que precisamos preencher.
Eles têm um método chamado "ontologia", que utiliza o método de ontologia. Na verdade, observei que a ideia geral é a aprendizagem por transferência que costumávamos fazer, aplicando uma solução geral a uma prática específica, usando uma ontologia para transferência de conhecimento. Esse método é muito inteligente. Ele é resolvido por meio de um método de engenharia chamado FDE (Forward Deployed Engineer - Engenheiro Implantado Avançado).
Enfim, acho que esse tipo de coisa vale muito a pena aprender. Acredito que as empresas chinesas, empresas nativas de IA, deveriam desenvolver soluções To B desse tipo. Tenho certeza de que o farão. Portanto, penso que o To C certamente florescerá em diversidade; o To B também poderá alcançá-lo rapidamente.
Li Guangmi (Moderador):
Obrigado, Professor Yang. Professor Tang.
Tang Jie:
Primeiro, acho que devemos admitir que existe uma lacuna entre a China e os Estados Unidos, seja na pesquisa, especialmente em laboratórios de IA empresarial. Esse é o primeiro ponto.
Mas acho que o futuro da China está melhorando aos poucos, especialmente para esta geração nascida após os anos 90 e 2000 que está surgindo — é realmente muito melhor do que antes. Certa vez, eu disse em uma reunião da YOCSEF: nossa geração é a mais desafortunada. Por quê? Veja bem, a geração anterior ainda está aqui, ainda estamos trabalhando, ainda não tivemos nossa vez. E, infelizmente, a próxima geração já surgiu; o mundo foi entregue à próxima geração, pulando a nossa sem nenhum problema. Brincadeira, na verdade.
Mas acho que o mais interessante é que as oportunidades futuras da China podem ser:
Primeiro, um grupo de pessoas inteligentes realmente ousa fazer coisas particularmente arriscadas. Acho que isso existe agora — a geração pós-anos 2000, pós-anos 90, incluindo Junyang, Kimi, Shunyu — todos estão dispostos e são muito ousados para correr riscos e realizar grandes aventuras.
Em segundo lugar, acredito que o ambiente realmente precisa ser melhorado. Seja no âmbito nacional, como a competição entre grandes e pequenas empresas, as questões que afetam as startups, ou mesmo no nosso ambiente de negócios. Como disse Junyang, ainda precisamos entregar resultados. Penso que construir um ambiente melhor, permitindo que um grupo de pessoas inteligentes que ousam correr riscos tenha mais tempo para inovar, é fundamental. Por exemplo, permitindo que pessoas como Junyang tenham mais tempo para inovar. Esse é o segundo ponto, algo que talvez o nosso governo, incluindo o país como um todo, possa ajudar a melhorar.
Em terceiro lugar, voltando a cada um de nós, a questão é se conseguiremos persistir. Conseguiremos ousar, ousar arriscar em um caminho, mesmo que o ambiente seja favorável? Acho que o ambiente certamente não será o ideal; nunca espere que seja. Mas acho que talvez tenhamos sorte — estamos vivenciando uma era em que o ambiente está melhorando gradualmente, apesar de talvez não ser tão bom antes. Somos pessoas que vivenciam a experiência, talvez as que mais colhem dessa riqueza. Se persistirmos, talvez sejamos nós que chegaremos ao fim. Obrigado a todos.
Conclusão
Li Guangmi (Moderadora):
Obrigada, Professor Tang. Nós também gostaríamos muito de pedir que mais recursos e financiamento sejam investidos na indústria de Inteligência Artificial Geral (IAG) da China. Com mais poder computacional, permitindo que mais jovens pesquisadores de IA "queimem cartões", talvez depois de três a cinco anos de "queima", a China também tenha de três a cinco de seus próprios Ilyas, certo? É isso que esperamos muito nos próximos três a cinco anos.




Comentários