![]() |
o logo da deepseek é uma baleia em azul |
Por Karen Hao/@karenhao.bsky.social
27 de janeiro de 2025 às 11:12
(de um fio do bluesky)
Como alguém que cobriu o tema da Inteligência Artificial por 7 anos e os assuntos de tecnologia da China também, acho que a maior lição a ser tirada do DeepSeek são as enormes rachaduras que ele ilustra, diante do paradigma dominante atual do desenvolvimento de IA. Um longo tópico.
Primeiro, o que é a DeepSeek? É uma empresa chinesa que foi capaz de produzir um modelo de IA de código aberto com aproximadamente 1/50 dos recursos dos modelos de última geração, mas ainda assim superou o 01 da OpenAI em vários benchmarks [indicador de desempenho].
Grande parte da cobertura [jornalística] tem se concentrado na competição tecnológica EUA-China. Isso ignora uma história maior: a DeepSeek demonstrou que escalar modelos de IA implacavelmente, um paradigma que a OpenAI introduziu e defende, não é a única, e nem de longe a melhor, maneira de desenvolver IA.
Até agora, a OpenAI e seus peers scaling labs [grupos de influência da área] têm procurado convencer o público e os formuladores de políticas de que o escalonamento é a melhor maneira de atingir o chamado AGI (Inteligência Artificial Generativa).
Este sempre foi mais um argumento baseado em negócios do que em ciência.
Existem evidências empíricas de que o escalonamento de modelos de IA pode levar a um melhor desempenho. Para as empresas, essa abordagem se presta a ciclos de planejamento trimestrais previsíveis e oferece um caminho claro para vencer a concorrência.
O problema é que há uma miríade de enormes externalidades negativas ao adotar essa abordagem, e a menor delas é que você precisa continuar construindo enormes data centers, o que exige o consumo de quantidades extraordinárias de recursos. Muitos jornalistas escreveram extensivamente sobre essas externalidades [esse é um termo usado na economia e na ciência do clima, por exemplo].
Quando esses enormes data centers são instalados na cidade, eles consomem muitos recursos. Eles pegam água potável- sim, ÁGUA POTÁVEL, por conta da qualidade da água exigida para resfriar esse avanço tecnológico que ameaça aumentar o preço da água para as famílias...
Esse modelo estende a vida útil da indústria de carvão e petróleo, piora na qualidade do ar (segundo @evanhalper.bsky.social do @washingtonpost.com) - não apenas porque os combustíveis fósseis são a maneira mais rápida de aumentar o fornecimento de energia, mas porque as instalações têm que funcionar 24 horas por dia, 7 dias por semana, e isso não é possível apenas com energias renováveis intermitentes.
Depois, há os impactos globais. Mais carvão e gás significam mais emissões de carbono, acelerando nossa crise climática. Daí o motivo pelo qual o Google e a MSFT tiveram um salto de ~50% e 30% nas emissões desde 2019 e 2020, respectivamente (de @darakerr.bsky.social em @npr.org).
OpenAl & co criaram um argumento engraçado sobre o porquê de aceitar essas externalidades: sim, infelizmente, há perdas no curto prazo, eles dizem, mas elas são necessárias para atingir a chamada AGI; a AGI então nos ajudará a resolver todos esses problemas! Então as perdas vale a pena.
Esta linha de pensamento tem sido tão eficaz em capturar a atenção dos poderosos, que o presidente Trump anunciou na semana passada o Projeto Stargate, um investimento privado de US$ 500 bilhões em data centers e outras infraestruturas de computação para a OpenAI.
Se a Stargate seguir adiante com US$ 500, será o maior gasto em infraestrutura da história e acelerará significativamente o ritmo já assustador do desenvolvimento de data center pós-ChatGPT. Por sua vez, isso acelerará significativamente as consequências mencionadas anteriormente.
Agora, além das externalidades negativas sobre o poder do povo, água, ar e clima global, temos outra: a cessão de mais e mais controle sobre a infraestrutura crítica de energia e água para o Vale do Silício. Escrevi sobre isso na semana passada em @theatlantic.com.
Mas o DeepSeek mostra, no mesmo momento do anúncio do Stargate, que a troca do OpenAI & co frame como totalmente necessária na verdade não o é.
Espere um minuto. Você quer dizer que não precisamos cobrir a Terra com data centers e usinas de carvão e gás para talvez chegar a um futuro onde podemos acenar uma varinha mágica AGI para fazer todas as consequências disso irem embora? Sim. Essa é uma falsa troca. Vamos deixar essa ideia amadurecendo.
Como eu disse antes, escalar sempre foi mais sobre negócios do que ciência. Cientificamente, não há nenhuma lei da física que diga que os avanços de IA devem vir da escala em vez de abordagens que usam os mesmos ou menos recursos. Escalar é apenas uma fórmula incrivelmente fácil de seguir.
O DeepSeek agora também enfraquece esses casos de negócios que pretendem escalar na infraestrutura. O OpenAI tem queimado somas impressionantes de dinheiro para manter o paradigma de escalonamento e ainda precisa descobrir como equilibrar seus talões de cheque e acontece que nem precisava gastar tanto dinheiro.
Então, não importa se você é uma empresa nos EUA, China ou outro lugar. O DeepSeek deve ser uma sinal para mudarmos a rota, com toda a força, em direção ao investimento em métodos muito mais eficientes de desenvolvimento de IA. Mesmo que você não se importe com os impactos na comunidade e no clima, é simplesmente um negócio muito melhor.
E se uma empresa não fizer essa alteração da rota, isso deve ser um grande sinal de alerta para sua capacidade de inovar. E não me refiro à inovação de produtos, mas à inovação em como desenvolver modelos de IA. A base de tudo.
Quando trabalhei em uma startup do Vale do Silício, costumávamos chamar um investimento do SoftBank de beijo da morte. O SoftBank injetava tanto dinheiro em startups que isso acabaria completamente com a necessidade dessas startups de inovar ou desenvolver um negócio financeiramente sustentável.
Eles poderiam mascarar toda a instabilidade em suas fundações com as hilariantes e imensas injeções de dinheiro por um bom tempo, mas eventualmente tudo ruiria. A necessidade é a mãe da inovação. Sem necessidade, o impulso existencial para inovar desaparece.
Estamos basicamente vendo isso de novo. A OpenAI com Sam Altman é tão boa em levantar capital (inclusive agora do SoftBank), que está encobrindo as fraquezas técnicas e comerciais da empresa.
Veja este relatório do @ainowinstitute.bsky.social do @bcmerchant.bsky.social [todos os links ao final].
DeepSeek é o outro lado da mesma moeda: ela inovou por causa das restrições e não a despeito delas. E agora que ela pôs de cabeça para baixo as assunções do paradigma dominante da Inteligência Artificial, nós deveríamos rejeitar esse custo e procurar novas maneiras de desenvolver IA sem tantos danos.