Mas nesse caso específico, o perfil do X usou um Agente de IA (baseado em RAG, que recupera trechos exatos das regras oficiais antes de responder), que é muito mais focado e alucina muito menos do que LLMs soltos, pois se limita estritamente ao manual, erratas e FAQs. Nada substitui uma boa leitura do manual, claro, mas nós que jogamos há décadas (kkkkk) sabemos que tem manual mal escrito que gera mais dúvidas do que certezas – e esses agentes ajudam justamente nesses casos, além de serem ouro para quem está iniciando no hobby, acelerando a curva de aprendizado sem quebrar o flow da mesa.
O que acho importante destacar é que, em 2026, ferramentas como Boardside.app (beta grátis, RAG puro com citações de páginas exatas) e apps como Ludomentor (da Awaken Realms) já resolvem interações complexas tipo “A com B?” com precisão impressionante, admitindo “não sei” quando não há base oficial e evitando invenções – usuários no BGG confirmam que é confiável para fatos e edge cases, superando NotebookLM em foco. Sobre IAs jogando Root ou TI, concordo 100%: assimetria + social é um muro alto hoje (espaço de estados explode), e humanos sempre vão “conspirar” contra o bot na mesa real. Mas pra regras, o paradigma mudou – teste o Boardside com um jogo polêmico seu e me conte! O futuro é vasto mesmo, e pro rules lawyering já tá rolando bem.
Vamos acompanhar cenas dos próximos capítulos. Como já aconteceu no campo do xadrez, no passado, suspeito que muito em breve o assunto volta a pauta com evoluções.
IMHO, o último grande salto foi a AlphaStar. Que se treinou para jogar Starcraft2 (somente com Protoss), e por si só achou uma estratégia que era teorizada como dominante, mas que por conta da limitação de APM dos humanos não era viável.
O AlphaStar achou a estratégia e por não ter limitação de APM, conseguiu pulverizar dois SC2 pros usando ela. A pegadinha é que ela fazia até 2000 APM e visão completa do mapa.
Os pros acharam que não era justo, e retreinaram a AI com burst de 1500 APM e média sustentada de 300 (se não me engano), além de colocarem o fog of war no mapa para ela também. Retreinaram e deu a mesma coisa.
O Legal disso tudo, e que mostrou a viabilidade da estratégia, e como está próximo dos tops players de conseguirem usar.
PS - Os números de APM são tirados de consulta no Reddit, e não sei se são confiáveis, mas lembro lá em 2019 ter rolado uma discussão que sem a limitação a comparação era meio que inútil. Como algumas Heurísticas onde a dificuldade aumenta escalando (negativamente) os custos de produção (hello Civ.)
O que quis dizer é que, neste momento, o foco (em especial o midiático) no avanço dos modelos está voltado para aspectos “corporativos” e de ganho de eficiência, como modelos focados em e-commerce, saúde, etc.
O que considero “cenas dos próximos capitulos” é justamente o momento em que algum ator vai usar uma janela de tempo para adequar os avanços que surgirem nos próximos meses a algum caso de uso de jogos como forma de demonstrar o ganho de escala da capacidade, em um modelo Deep Blue x Kasparov.
Acho que temos um limite estabelecido hoje, mas ele deve ser superado em poucos meses.
Infelizmente as grandes empresas que viam investimento em jogos como forma de mostrar os avanços das suas tecnologias meio q pararam de fazer esses eventos.
Na verdade eu tendo a achar que isso tudo é só mera especulação pra aumentar as ações de IA kkkkk.
nenhuma tecnologia cresce exponencialmente, sempre tem um limiar onde a tecnologia atual ainda não alcança. as IA`s já estão batendo nesse teto.
IA`s criarem as próprias IA`s não vai mudar nada, na verdade é parte do problema. com o avanço das IA`s cada vez se gera menos conteúdo pra treinamento, praticamente a internet inteira já foi usada pra treinar os modelos, o que faz com que cada vez se tenha menos precisão das informações para treinamento de novos modelos. uma vez que essas informações virão de outras IA`s.
E de verdade, uma IA hoje pode até gerar o código para criar outra IA, mas pessoalmente, vendo tudo que já saiu, a chance de ficar horrivel é quase 100%, ou seja, por mais que a IA escreva o código, tem um humano ali pensando na arquitetura, debugando, testando, etc.
Estamos muito longe de uma AGI, muito longe mesmo, a verdade é que hoje com esse hype de IA temos a tendência de focar muito nos acertos mas pouco nos problemas que IA ainda apresentam.
Sem duvida a IA vai evuluir muito, mas dado os limites tecnológicos que temos hoje, já estão batendo em um teto.
Basta ver a evolução de um GPT 2 para o GPT 3, agora do GPT 4 para o 5 tem pouquissima diferença.