A batalha das cem modelos no campo da IA está em pleno andamento, mas as perspectivas comerciais ainda são incertas.
No mês passado, a comunidade de IA foi abalada por uma "disputa animal". De um lado está o modelo Llama da Meta, que é amplamente popular entre os desenvolvedores devido à sua natureza de código aberto. Após estudar o Llama, a empresa japonesa NEC desenvolveu rapidamente uma versão em japonês do ChatGPT. Do outro lado está um grande modelo chamado Falcon, que, após seu lançamento em maio, superou o Llama e alcançou o topo da tabela de LLMs de código aberto.
Curiosamente, o Falcon não é originário de uma empresa de tecnologia, mas sim desenvolvido pelo Instituto de Pesquisa em Inovação Tecnológica de Abu Dhabi, nos Emirados Árabes Unidos. Funcionários dos Emirados afirmaram que estão envolvidos neste campo para "desestabilizar os jogadores principais". No dia seguinte ao lançamento da versão 180B do Falcon, o Ministro da IA dos Emirados foi incluído na lista das "100 Pessoas Mais Influentes em IA" da revista Time.
Atualmente, o campo da IA entrou numa fase de competição acirrada, com países e empresas de destaque a desenvolverem os seus próprios modelos de grande porte. Apenas na região do Golfo, a Arábia Saudita também adquiriu recentemente mais de 3000 chips H100 para o treinamento de LLM para universidades locais.
Um investidor comentou nas redes sociais: "Naquela época, eu não valorizava a inovação nos modelos de negócios da internet, achando que não havia barreiras. Não esperava que o empreendedorismo em grande escala na tecnologia avançada ainda resultasse em uma guerra de modelos..."
Como é que a chamada tecnologia de ponta de alto nível se tornou uma competição em que todos podem participar?
Transformer muda as regras do jogo
As startups de vários países, gigantes da tecnologia e magnatas do petróleo podem perseguir o sonho dos grandes modelos, graças ao artigo "Attention Is All You Need" publicado pelo Google em 2017. Este artigo revelou o algoritmo Transformer, tornando-se o estopim desta onda de IA. Atualmente, diversos grandes modelos, independentemente da nacionalidade, incluindo a série GPT que causou alvoroço no mundo, são construídos sobre a base do Transformer.
Até agora, "ensinar máquinas a ler" tem sido um problema acadêmico reconhecido. Ao contrário do reconhecimento de imagem, a leitura humana não se concentra apenas nas palavras e frases atuais, mas também combina o contexto para entender. As entradas das redes neurais iniciais eram independentes entre si, dificultando a compreensão de textos longos ou até mesmo de artigos inteiros, o que levou a problemas como traduzir "开水间" para "open water room".
Em 2014, após trabalhar no Google, o cientista da computação Ilya Sutskever( fez a transição para a OpenAI e foi o primeiro a alcançar um grande avanço. Ele usou redes neurais recorrentes)RNN( para processar linguagem natural, permitindo que o Google Translate superasse significativamente os concorrentes. O RNN introduziu o "design recorrente", onde cada neurônio recebe tanto a entrada do momento atual quanto a entrada do momento anterior, permitindo assim a capacidade de "combinar contexto".
A aparição das RNNs acendeu o entusiasmo da comunidade acadêmica, e o autor do artigo Transformer, Noam Shazeer), também se deixou levar. Mas os desenvolvedores logo descobriram que as RNNs apresentavam sérias deficiências: o algoritmo usa computação sequencial, embora consiga resolver problemas de contexto, sua eficiência de execução é baixa, dificultando o processamento de um grande número de parâmetros.
O design complicado do RNN deixou Shazer frustrado. A partir de 2015, ele e mais sete entusiastas começaram a desenvolver um substituto para o RNN, que resultou no Transformer. Em comparação com o RNN, o Transformer apresenta duas grandes inovações: a primeira é a substituição do design cíclico por codificação de posição, permitindo computação paralela, aumentando significativamente a eficiência do treinamento e levando a IA à era dos grandes modelos; a segunda é a capacidade de entender o contexto ainda mais aprimorada.
O Transformer resolveu várias deficiências de uma só vez, tornando-se gradualmente a solução de referência para NLP( processamento de linguagem natural). Até mesmo Ilia abandonou sua própria RNN que ele criou e se juntou ao campo do Transformer. Pode-se dizer que o Transformer é o antepassado de todos os grandes modelos de hoje, transformando a pesquisa teórica em um problema puramente de engenharia.
Em 2019, a OpenAI desenvolveu o GPT-2 com base no Transformer, chocando a academia. O Google logo lançou um modelo de IA mais poderoso, o Meena. Comparado ao GPT-2, o Meena não trouxe inovações algorítmicas, apenas aumentou em 8,5 vezes os parâmetros de treinamento e em 14 vezes a capacidade computacional. O autor do Transformer, Ashish Vaswani, ficou profundamente impressionado com essa "acumulação violenta", escrevendo uma nota de que "Meena devorou o mundo".
Após o surgimento do Transformer, a velocidade de inovação dos algoritmos de base na academia diminuiu drasticamente. Fatores de engenharia, como engenharia de dados, escala de computação e arquitetura de modelos, tornaram-se cada vez mais cruciais nas competições de IA. Qualquer empresa de tecnologia com um certo nível de capacidade técnica pode desenvolver grandes modelos.
O cientista da computação Andrew Ng, durante uma palestra na Universidade de Stanford, afirmou: "A IA é um conjunto de ferramentas que inclui aprendizado supervisionado, aprendizado não supervisionado, aprendizado por reforço e a atual inteligência artificial generativa. Todas essas são tecnologias gerais, semelhantes a outras tecnologias gerais como eletricidade e internet."
Embora a OpenAI continue a ser um marco no campo dos LLM, a instituição de análise de semicondutores Semi Analysis acredita que a competitividade do GPT-4 se origina de soluções de engenharia - se for open source, qualquer concorrente poderá copiá-lo rapidamente. O analista prevê que, em pouco tempo, outras grandes empresas de tecnologia também conseguirão desenvolver grandes modelos com desempenho equivalente ao do GPT-4.
Onde é construída a muralha de proteção?
Atualmente, a "batalha dos grandes modelos" já não é uma metáfora, mas sim uma realidade. Segundo relatórios, até julho deste ano, o número de grandes modelos na China já atingiu 130, superando os 114 dos Estados Unidos, e as várias lendas mitológicas quase não são suficientes para as empresas de tecnologia nacionais nomearem seus produtos.
Além da China e dos EUA, outros países ricos também realizaram preliminarmente o "um país, um modelo": Japão, Emirados Árabes Unidos, além do Bhashini liderado pelo governo indiano, e o HyperClova X desenvolvido pela empresa de internet sul-coreana Naver. Essa cena parece que retornamos à era da bolha da internet, onde todos estão queimando dinheiro para entrar.
Como mencionado anteriormente, o Transformer transformou os grandes modelos em um problema puramente de engenharia; desde que haja financiamento e hardware, o resto é ajuste de parâmetros. No entanto, a redução da barreira de entrada não significa que todos possam se tornar gigantes na era da IA.
O "conflito animal" mencionado no início é um caso típico: embora o Falcon tenha superado o Llama no ranking, é difícil afirmar que isso tenha causado um grande impacto na Meta. É amplamente reconhecido que as empresas tornam públicos seus resultados de pesquisa e desenvolvimento, tanto para compartilhar os benefícios tecnológicos quanto para incentivar a sabedoria social. À medida que diferentes setores continuam a usar e aprimorar o Llama, a Meta pode aplicar esses resultados em seus próprios produtos.
Para grandes modelos de código aberto, uma comunidade de desenvolvedores ativa é a verdadeira força competitiva. A Meta estabeleceu a rota de código aberto já em 2015, quando formou seu laboratório de IA; Zuckerberg, tendo começado com redes sociais, entende melhor a importância de "manter relações com as massas".
Por exemplo, em outubro, a Meta organizou o evento "Incentivo para Criadores de AI": desenvolvedores que utilizam o Llama 2 para resolver problemas sociais, como educação e meio ambiente, têm a oportunidade de receber um financiamento de 500 mil dólares. Atualmente, a série Llama da Meta tornou-se um indicador de referência para LLMs de código aberto.
Até o início de outubro, entre os 10 principais LLMs de uma plataforma conhecida e de código aberto, 8 são baseados no Llama 2, todos utilizando seu protocolo de código aberto. Apenas nessa plataforma, já existem mais de 1500 LLMs que utilizam o protocolo de código aberto do Llama 2.
Melhorar o desempenho é certamente viável, mas atualmente a maioria dos LLMs ainda apresenta uma diferença clara em relação ao GPT-4. Por exemplo, recentemente, o GPT-4 alcançou a primeira posição no ranking do teste AgentBench com uma pontuação de 4.41. O AgentBench foi lançado pela Universidade Tsinghua em parceria com várias universidades renomadas dos Estados Unidos, e é utilizado para avaliar a capacidade de raciocínio e de tomada de decisão dos LLMs em ambientes de geração aberta multidimensionais.
Os resultados dos testes mostram que o segundo colocado, Claude, obteve apenas 2,77 pontos, o que ainda representa uma grande diferença. Quanto aos LLMs de código aberto que fazem muito barulho, a maioria dos pontos oscila em torno de 1 ponto, o que é menos de um quarto do GPT-4. Vale lembrar que o GPT-4 foi lançado em março deste ano, e isso é o resultado de mais de meio ano de concorrência global.
A causa dessa diferença é a equipe de cientistas de alto nível da OpenAI e a experiência acumulada ao longo de anos de pesquisa em LLM, que mantém a sua posição de liderança. Em outras palavras, a capacidade central do grande modelo não está nos parâmetros, mas na construção do ecossistema ( código aberto ) ou pura capacidade de raciocínio ( código fechado ).
Com a crescente atividade da comunidade de código aberto, o desempenho dos LLMs pode se tornar semelhante, uma vez que todos estão usando arquiteturas de modelo e conjuntos de dados semelhantes. Outro desafio mais intuitivo é: além do Midjourney, parece que nenhum grande modelo conseguiu obter lucro.
Encontrar pontos de âncora de valor
Em agosto deste ano, um artigo intitulado "OpenAI pode entrar em falência até o final de 2024" chamou a atenção. O tema do artigo pode ser resumido em uma frase: a velocidade de queima de dinheiro da OpenAI é muito rápida.
O artigo menciona que, desde o desenvolvimento do ChatGPT, as perdas da OpenAI aumentaram rapidamente, com uma perda de cerca de 540 milhões de dólares em 2022, dependendo apenas do investimento da Microsoft para se sustentar. Embora o título do artigo seja alarmante, ele também revela a situação de muitos provedores de grandes modelos: um sério desequilíbrio entre custos e receitas.
Os custos excessivos significam que, atualmente, as únicas empresas que realmente estão a ganhar muito dinheiro com IA são a Nvidia, e, no máximo, a Broadcom. Segundo a consultora Omdia, a Nvidia vendeu mais de 300 mil chips H100 no segundo trimestre deste ano. Este é um chip de IA altamente eficiente, e empresas de tecnologia e instituições de pesquisa em todo o mundo estão a competir para comprá-lo. Se empilharmos esses 300 mil H100, o peso seria equivalente a 4,5 aviões Boeing 747.
A performance da Nvidia disparou, com um aumento de receita de 854% em relação ao ano anterior, deixando Wall Street estupefata. Vale a pena mencionar que o preço do H100 no mercado de segunda mão já foi inflacionado para 40.000 a 50.000 dólares, enquanto seu custo de material é de apenas cerca de 3.000 dólares.
Os altos custos de poder computacional tornaram-se um obstáculo ao desenvolvimento da indústria em certa medida. A Sequoia Capital estimou que as empresas de tecnologia em todo o mundo gastarão cerca de 200 bilhões de dólares por ano na construção de infraestrutura para grandes modelos; em comparação, os grandes modelos podem gerar no máximo 75 bilhões de dólares em receita por ano, o que resulta em uma lacuna de pelo menos 125 bilhões de dólares.
Além disso, com exceção de algumas raras como a Midjourney, a maioria das empresas de software, após investir enormes custos, ainda não encontrou um modelo de lucro. Mesmo os líderes de mercado, como a Microsoft e a Adobe, enfrentam desafios.
A ferramenta de geração de código AI GitHub Copilot, desenvolvida pela Microsoft em colaboração com a OpenAI, cobra 10 dólares por mês, mas devido aos custos das instalações, a Microsoft acaba perdendo 20 dólares por mês. Usuários intensivos podem até fazer com que a Microsoft perca 80 dólares por mês. Assim, pode-se inferir que o Microsoft 365 Copilot, que tem um preço de 30 dólares, pode ter uma perda ainda maior.
Da mesma forma, a Adobe, que recentemente lançou a ferramenta Firefly AI, rapidamente lançou um sistema de pontos associado para evitar que os usuários abusassem do uso, causando prejuízos à empresa. Assim que os usuários ultrapassam os pontos alocados mensalmente, a Adobe reduz a velocidade do serviço.
É importante notar que a Microsoft e a Adobe já são gigantes de software com cenários de negócios claros e uma grande base de usuários pagantes. Enquanto isso, a maioria dos grandes modelos com muitos parâmetros ainda tem como principal cenário de aplicação o chat.
É inegável que, sem o surgimento do OpenAI e do ChatGPT, esta revolução da IA pode não ter ocorrido; mas atualmente, o valor trazido pelo treinamento de grandes modelos ainda é questionável. Com o aumento da concorrência homogeneizada e o aumento de modelos de código aberto, os fornecedores de grandes modelos puros podem enfrentar desafios ainda maiores.
O sucesso do iPhone 4 não está no processador A4 de 45nm, mas sim na sua capacidade de rodar aplicações como Plants vs. Zombies e Angry Birds.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
22 Curtidas
Recompensa
22
5
Compartilhar
Comentário
0/400
MetaverseLandlord
· 08-01 21:36
O que você está fazendo? Agora é hora de ganhar dinheiro.
Ver originalResponder0
RektButStillHere
· 08-01 07:14
Ter dinheiro realmente permite fazer o que se quer. É absurdo!
Ver originalResponder0
SigmaBrain
· 07-30 01:56
Os brinquedos são impressionantes, é realmente um pouco de dinheiro jogado para querer revolucionar.
Ver originalResponder0
FrogInTheWell
· 07-30 01:53
As ambições dos Emirados Árabes Unidos são grandes.
Ver originalResponder0
WalletDetective
· 07-30 01:40
Desenvolver algo é inútil, no final depende da espessura da Carteira.
Por trás da batalha das centenas de modelos de IA: Gota de tecnologia, perspetivas comerciais ainda incertas
A batalha das cem modelos no campo da IA está em pleno andamento, mas as perspectivas comerciais ainda são incertas.
No mês passado, a comunidade de IA foi abalada por uma "disputa animal". De um lado está o modelo Llama da Meta, que é amplamente popular entre os desenvolvedores devido à sua natureza de código aberto. Após estudar o Llama, a empresa japonesa NEC desenvolveu rapidamente uma versão em japonês do ChatGPT. Do outro lado está um grande modelo chamado Falcon, que, após seu lançamento em maio, superou o Llama e alcançou o topo da tabela de LLMs de código aberto.
Curiosamente, o Falcon não é originário de uma empresa de tecnologia, mas sim desenvolvido pelo Instituto de Pesquisa em Inovação Tecnológica de Abu Dhabi, nos Emirados Árabes Unidos. Funcionários dos Emirados afirmaram que estão envolvidos neste campo para "desestabilizar os jogadores principais". No dia seguinte ao lançamento da versão 180B do Falcon, o Ministro da IA dos Emirados foi incluído na lista das "100 Pessoas Mais Influentes em IA" da revista Time.
Atualmente, o campo da IA entrou numa fase de competição acirrada, com países e empresas de destaque a desenvolverem os seus próprios modelos de grande porte. Apenas na região do Golfo, a Arábia Saudita também adquiriu recentemente mais de 3000 chips H100 para o treinamento de LLM para universidades locais.
Um investidor comentou nas redes sociais: "Naquela época, eu não valorizava a inovação nos modelos de negócios da internet, achando que não havia barreiras. Não esperava que o empreendedorismo em grande escala na tecnologia avançada ainda resultasse em uma guerra de modelos..."
Como é que a chamada tecnologia de ponta de alto nível se tornou uma competição em que todos podem participar?
Transformer muda as regras do jogo
As startups de vários países, gigantes da tecnologia e magnatas do petróleo podem perseguir o sonho dos grandes modelos, graças ao artigo "Attention Is All You Need" publicado pelo Google em 2017. Este artigo revelou o algoritmo Transformer, tornando-se o estopim desta onda de IA. Atualmente, diversos grandes modelos, independentemente da nacionalidade, incluindo a série GPT que causou alvoroço no mundo, são construídos sobre a base do Transformer.
Até agora, "ensinar máquinas a ler" tem sido um problema acadêmico reconhecido. Ao contrário do reconhecimento de imagem, a leitura humana não se concentra apenas nas palavras e frases atuais, mas também combina o contexto para entender. As entradas das redes neurais iniciais eram independentes entre si, dificultando a compreensão de textos longos ou até mesmo de artigos inteiros, o que levou a problemas como traduzir "开水间" para "open water room".
Em 2014, após trabalhar no Google, o cientista da computação Ilya Sutskever( fez a transição para a OpenAI e foi o primeiro a alcançar um grande avanço. Ele usou redes neurais recorrentes)RNN( para processar linguagem natural, permitindo que o Google Translate superasse significativamente os concorrentes. O RNN introduziu o "design recorrente", onde cada neurônio recebe tanto a entrada do momento atual quanto a entrada do momento anterior, permitindo assim a capacidade de "combinar contexto".
A aparição das RNNs acendeu o entusiasmo da comunidade acadêmica, e o autor do artigo Transformer, Noam Shazeer), também se deixou levar. Mas os desenvolvedores logo descobriram que as RNNs apresentavam sérias deficiências: o algoritmo usa computação sequencial, embora consiga resolver problemas de contexto, sua eficiência de execução é baixa, dificultando o processamento de um grande número de parâmetros.
O design complicado do RNN deixou Shazer frustrado. A partir de 2015, ele e mais sete entusiastas começaram a desenvolver um substituto para o RNN, que resultou no Transformer. Em comparação com o RNN, o Transformer apresenta duas grandes inovações: a primeira é a substituição do design cíclico por codificação de posição, permitindo computação paralela, aumentando significativamente a eficiência do treinamento e levando a IA à era dos grandes modelos; a segunda é a capacidade de entender o contexto ainda mais aprimorada.
O Transformer resolveu várias deficiências de uma só vez, tornando-se gradualmente a solução de referência para NLP( processamento de linguagem natural). Até mesmo Ilia abandonou sua própria RNN que ele criou e se juntou ao campo do Transformer. Pode-se dizer que o Transformer é o antepassado de todos os grandes modelos de hoje, transformando a pesquisa teórica em um problema puramente de engenharia.
Em 2019, a OpenAI desenvolveu o GPT-2 com base no Transformer, chocando a academia. O Google logo lançou um modelo de IA mais poderoso, o Meena. Comparado ao GPT-2, o Meena não trouxe inovações algorítmicas, apenas aumentou em 8,5 vezes os parâmetros de treinamento e em 14 vezes a capacidade computacional. O autor do Transformer, Ashish Vaswani, ficou profundamente impressionado com essa "acumulação violenta", escrevendo uma nota de que "Meena devorou o mundo".
Após o surgimento do Transformer, a velocidade de inovação dos algoritmos de base na academia diminuiu drasticamente. Fatores de engenharia, como engenharia de dados, escala de computação e arquitetura de modelos, tornaram-se cada vez mais cruciais nas competições de IA. Qualquer empresa de tecnologia com um certo nível de capacidade técnica pode desenvolver grandes modelos.
O cientista da computação Andrew Ng, durante uma palestra na Universidade de Stanford, afirmou: "A IA é um conjunto de ferramentas que inclui aprendizado supervisionado, aprendizado não supervisionado, aprendizado por reforço e a atual inteligência artificial generativa. Todas essas são tecnologias gerais, semelhantes a outras tecnologias gerais como eletricidade e internet."
Embora a OpenAI continue a ser um marco no campo dos LLM, a instituição de análise de semicondutores Semi Analysis acredita que a competitividade do GPT-4 se origina de soluções de engenharia - se for open source, qualquer concorrente poderá copiá-lo rapidamente. O analista prevê que, em pouco tempo, outras grandes empresas de tecnologia também conseguirão desenvolver grandes modelos com desempenho equivalente ao do GPT-4.
Onde é construída a muralha de proteção?
Atualmente, a "batalha dos grandes modelos" já não é uma metáfora, mas sim uma realidade. Segundo relatórios, até julho deste ano, o número de grandes modelos na China já atingiu 130, superando os 114 dos Estados Unidos, e as várias lendas mitológicas quase não são suficientes para as empresas de tecnologia nacionais nomearem seus produtos.
Além da China e dos EUA, outros países ricos também realizaram preliminarmente o "um país, um modelo": Japão, Emirados Árabes Unidos, além do Bhashini liderado pelo governo indiano, e o HyperClova X desenvolvido pela empresa de internet sul-coreana Naver. Essa cena parece que retornamos à era da bolha da internet, onde todos estão queimando dinheiro para entrar.
Como mencionado anteriormente, o Transformer transformou os grandes modelos em um problema puramente de engenharia; desde que haja financiamento e hardware, o resto é ajuste de parâmetros. No entanto, a redução da barreira de entrada não significa que todos possam se tornar gigantes na era da IA.
O "conflito animal" mencionado no início é um caso típico: embora o Falcon tenha superado o Llama no ranking, é difícil afirmar que isso tenha causado um grande impacto na Meta. É amplamente reconhecido que as empresas tornam públicos seus resultados de pesquisa e desenvolvimento, tanto para compartilhar os benefícios tecnológicos quanto para incentivar a sabedoria social. À medida que diferentes setores continuam a usar e aprimorar o Llama, a Meta pode aplicar esses resultados em seus próprios produtos.
Para grandes modelos de código aberto, uma comunidade de desenvolvedores ativa é a verdadeira força competitiva. A Meta estabeleceu a rota de código aberto já em 2015, quando formou seu laboratório de IA; Zuckerberg, tendo começado com redes sociais, entende melhor a importância de "manter relações com as massas".
Por exemplo, em outubro, a Meta organizou o evento "Incentivo para Criadores de AI": desenvolvedores que utilizam o Llama 2 para resolver problemas sociais, como educação e meio ambiente, têm a oportunidade de receber um financiamento de 500 mil dólares. Atualmente, a série Llama da Meta tornou-se um indicador de referência para LLMs de código aberto.
Até o início de outubro, entre os 10 principais LLMs de uma plataforma conhecida e de código aberto, 8 são baseados no Llama 2, todos utilizando seu protocolo de código aberto. Apenas nessa plataforma, já existem mais de 1500 LLMs que utilizam o protocolo de código aberto do Llama 2.
Melhorar o desempenho é certamente viável, mas atualmente a maioria dos LLMs ainda apresenta uma diferença clara em relação ao GPT-4. Por exemplo, recentemente, o GPT-4 alcançou a primeira posição no ranking do teste AgentBench com uma pontuação de 4.41. O AgentBench foi lançado pela Universidade Tsinghua em parceria com várias universidades renomadas dos Estados Unidos, e é utilizado para avaliar a capacidade de raciocínio e de tomada de decisão dos LLMs em ambientes de geração aberta multidimensionais.
Os resultados dos testes mostram que o segundo colocado, Claude, obteve apenas 2,77 pontos, o que ainda representa uma grande diferença. Quanto aos LLMs de código aberto que fazem muito barulho, a maioria dos pontos oscila em torno de 1 ponto, o que é menos de um quarto do GPT-4. Vale lembrar que o GPT-4 foi lançado em março deste ano, e isso é o resultado de mais de meio ano de concorrência global.
A causa dessa diferença é a equipe de cientistas de alto nível da OpenAI e a experiência acumulada ao longo de anos de pesquisa em LLM, que mantém a sua posição de liderança. Em outras palavras, a capacidade central do grande modelo não está nos parâmetros, mas na construção do ecossistema ( código aberto ) ou pura capacidade de raciocínio ( código fechado ).
Com a crescente atividade da comunidade de código aberto, o desempenho dos LLMs pode se tornar semelhante, uma vez que todos estão usando arquiteturas de modelo e conjuntos de dados semelhantes. Outro desafio mais intuitivo é: além do Midjourney, parece que nenhum grande modelo conseguiu obter lucro.
Encontrar pontos de âncora de valor
Em agosto deste ano, um artigo intitulado "OpenAI pode entrar em falência até o final de 2024" chamou a atenção. O tema do artigo pode ser resumido em uma frase: a velocidade de queima de dinheiro da OpenAI é muito rápida.
O artigo menciona que, desde o desenvolvimento do ChatGPT, as perdas da OpenAI aumentaram rapidamente, com uma perda de cerca de 540 milhões de dólares em 2022, dependendo apenas do investimento da Microsoft para se sustentar. Embora o título do artigo seja alarmante, ele também revela a situação de muitos provedores de grandes modelos: um sério desequilíbrio entre custos e receitas.
Os custos excessivos significam que, atualmente, as únicas empresas que realmente estão a ganhar muito dinheiro com IA são a Nvidia, e, no máximo, a Broadcom. Segundo a consultora Omdia, a Nvidia vendeu mais de 300 mil chips H100 no segundo trimestre deste ano. Este é um chip de IA altamente eficiente, e empresas de tecnologia e instituições de pesquisa em todo o mundo estão a competir para comprá-lo. Se empilharmos esses 300 mil H100, o peso seria equivalente a 4,5 aviões Boeing 747.
A performance da Nvidia disparou, com um aumento de receita de 854% em relação ao ano anterior, deixando Wall Street estupefata. Vale a pena mencionar que o preço do H100 no mercado de segunda mão já foi inflacionado para 40.000 a 50.000 dólares, enquanto seu custo de material é de apenas cerca de 3.000 dólares.
Os altos custos de poder computacional tornaram-se um obstáculo ao desenvolvimento da indústria em certa medida. A Sequoia Capital estimou que as empresas de tecnologia em todo o mundo gastarão cerca de 200 bilhões de dólares por ano na construção de infraestrutura para grandes modelos; em comparação, os grandes modelos podem gerar no máximo 75 bilhões de dólares em receita por ano, o que resulta em uma lacuna de pelo menos 125 bilhões de dólares.
Além disso, com exceção de algumas raras como a Midjourney, a maioria das empresas de software, após investir enormes custos, ainda não encontrou um modelo de lucro. Mesmo os líderes de mercado, como a Microsoft e a Adobe, enfrentam desafios.
A ferramenta de geração de código AI GitHub Copilot, desenvolvida pela Microsoft em colaboração com a OpenAI, cobra 10 dólares por mês, mas devido aos custos das instalações, a Microsoft acaba perdendo 20 dólares por mês. Usuários intensivos podem até fazer com que a Microsoft perca 80 dólares por mês. Assim, pode-se inferir que o Microsoft 365 Copilot, que tem um preço de 30 dólares, pode ter uma perda ainda maior.
Da mesma forma, a Adobe, que recentemente lançou a ferramenta Firefly AI, rapidamente lançou um sistema de pontos associado para evitar que os usuários abusassem do uso, causando prejuízos à empresa. Assim que os usuários ultrapassam os pontos alocados mensalmente, a Adobe reduz a velocidade do serviço.
É importante notar que a Microsoft e a Adobe já são gigantes de software com cenários de negócios claros e uma grande base de usuários pagantes. Enquanto isso, a maioria dos grandes modelos com muitos parâmetros ainda tem como principal cenário de aplicação o chat.
É inegável que, sem o surgimento do OpenAI e do ChatGPT, esta revolução da IA pode não ter ocorrido; mas atualmente, o valor trazido pelo treinamento de grandes modelos ainda é questionável. Com o aumento da concorrência homogeneizada e o aumento de modelos de código aberto, os fornecedores de grandes modelos puros podem enfrentar desafios ainda maiores.
O sucesso do iPhone 4 não está no processador A4 de 45nm, mas sim na sua capacidade de rodar aplicações como Plants vs. Zombies e Angry Birds.