Com $30 milhões em financiamento e apoiado por capital de primeira linha, como Hack VC, Multicoin Capital, Delphi Digital e Solana Lab, a io.net não parece muito "caseira". Os rótulos de poder de processamento de GPU e revolução de IA estão longe de serem pé-no-chão, frequentemente associados a conotações de alta qualidade.
No entanto, em meio às discussões animadas da comunidade, pistas cruciais muitas vezes são ignoradas, especialmente em relação à profunda transformação que o io.net pode trazer para a rede global de poder de computação. Ao contrário da posição 'elite' da AWS, Azure e GCP, o io.net segue essencialmente uma rota populista:
O objetivo é complementar a demanda de poder de computação "mid-tail + long-tail" ignorada, agregando recursos ociosos de GPU. Ao criar uma rede de computação distribuída descentralizada de nível empresarial, a io.net capacita uma gama mais ampla de pequenos e médios usuários com inovação em IA. Isso alcança uma "reliberação de produtividade" de baixo custo e altamente flexível para a inovação global em IA.
Qual é o recurso de produtividade central na atual onda de IA e na futura era da economia digital?
Sem dúvida, é poder de computação.
De acordo com dados da Precedence Research, o mercado global de hardware de inteligência artificial deverá crescer a uma taxa de crescimento anual composta (CAGR) de 24,3%, ultrapassando US$ 473,53 bilhões até 2033.
Mesmo deixando de lado esses números preditivos, tanto do ponto de vista incremental quanto do lógico de estoque, é evidente que duas principais contradições persistirão no futuro desenvolvimento do mercado de poder de computação:
Em primeiro lugar, na dimensão incremental, além da rápida expansão dos modelos de conteúdo gerado por IA (AIGC), inúmeros cenários de IA em suas fases iniciais de explosão, como saúde, educação e direção inteligente, estão se desenrolando rapidamente. Todos esses cenários requerem vastos recursos de computação. Portanto, a atual escassez de recursos de poder de computação de GPU no mercado não só persistirá, mas continuará a se expandir.
Em outras palavras, do ponto de vista da oferta e demanda, num futuro previsível, a demanda de mercado por Poder de computação sem dúvida excederá em muito a oferta. A curva de demanda deve mostrar uma tendência exponencial de alta a curto prazo.
Por outro lado, devido às leis físicas e aos fatores práticos de produção, seja por melhorias na tecnologia de processo ou por expansões em larga escala de fábricas, no máximo, apenas o crescimento linear pode ser alcançado. Isso inevitavelmente significa que o gargalo de poder de computação no desenvolvimento de IA persistirá por um longo tempo.
Enquanto isso, com recursos de poder de computação limitados enfrentando severos gargalos de crescimento, Amazon Web Services (AWS), Microsoft Azure e Google Cloud Platform (GCP) ocupam coletivamente mais de 60% do market share de computação em nuvem, criando um claro mercado de vendedores.
Essas empresas acumulam chips de GPU de alto desempenho, monopolizando uma vasta quantidade de poder de computação. Os jogadores de demanda de pequeno e médio porte de nível intermediário e de longa cauda não apenas carecem de poder de barganha, mas também têm que lidar com altos custos de capital, barreiras de entrada KYC e termos de locação restritivos. Além disso, gigantes tradicionais de serviços em nuvem, impulsionados por considerações de lucro, muitas vezes ignoram as necessidades de negócios diferenciadas dos usuários de “nível intermediário + longa cauda” (como requisitos de locação mais curtos, imediatos e em menor escala).
Na realidade, no entanto, uma grande quantidade de Poder de computação de GPU é deixada sem uso fora das redes de computação dos gigantes de serviços de nuvem. Por exemplo, dezenas de milhares de Centros de Dados da Internet (IDC) independentes em todo o mundo desperdiçam recursos em pequenas tarefas de treinamento. Isso inclui vasto Poder de computação inativo em fazendas de mineração de criptomoedas e projetos como Filecoin, Render e Aethir.
De acordo com estimativas oficiais da io.net, a taxa de ociosidade de placas gráficas nos data centers IDCs nos EUA sozinha excede 60%. Isso cria um paradoxo irônico de descompasso entre oferta e demanda: mais da metade dos recursos de poder computacional de dezenas de milhares de pequenos e médios data centers e fazendas de mineração de criptomoedas são desperdiçados diariamente, não gerando receita eficaz, enquanto empreendedores de IA de médio porte e de longa cauda suportam altos custos e altas barreiras de entrada dos serviços de computação de gigantes de nuvem, com suas diversas necessidades inovadoras não atendidas.
Esse contraste marcante revela a contradição central no atual desenvolvimento global de IA e mercado global de poder de computação—por um lado, a inovação em IA é generalizada, e a demanda por poder de computação está continuamente expandindo. Por outro lado, as necessidades de poder de computação de jogadores de médio porte e long tail e recursos de GPU inativos não estão sendo atendidos de forma eficaz, permanecendo fora do atual mercado de poder de computação.
Esta questão não é apenas o conflito entre as crescentes demandas de poder de computação dos empreendedores de IA e o crescimento defasado do poder de computação. Também é a discrepância entre a grande maioria dos empreendedores de IA de médio porte e long tail, operadores de poder de computação, e o desequilíbrio entre oferta e demanda, que ultrapassa em muito o escopo das soluções dos provedores de serviços em nuvem centralizados.
Portanto, o mercado está clamando por novas soluções. Imagine se esses operadores com poder de computação pudessem alugar flexivelmente sua capacidade de computação durante os tempos ociosos. Isso não forneceria um cluster computacional de baixo custo semelhante à AWS?
Construir uma rede computacional em grande escala é extremamente caro. Isso levou ao surgimento de plataformas especificamente projetadas para combinar recursos computacionais ociosos com startups de IA de pequeno e médio porte. Essas plataformas agregam recursos computacionais ociosos dispersos e os combinam com necessidades específicas em setores como saúde, direito e finanças para treinar modelos pequenos e grandes.
Isso não só pode atender às diversas necessidades de computação da cauda média a longa, mas também complementa os serviços de computação dos gigantes centralizados de nuvem existentes:
Gigantes da nuvem com vastos recursos de computação lidam com treinamento de modelos grandes e computação de alto desempenho para demandas urgentes e pesadas.
Mercados descentralizados de computação em nuvem como io.net atendem a pequenos cálculos de modelo, ajuste fino de modelos grandes, implantação de inferência e necessidades mais diversificadas e de baixo custo.
Em essência, ele fornece um equilíbrio dinâmico entre custo-efetividade e qualidade computacional, alinhando-se com a lógica econômica de otimização da alocação de recursos no mercado. Assim, as redes de computação distribuída como io.net essencialmente oferecem uma solução “IA+Crypto”. Elas utilizam um framework colaborativo descentralizado combinado com incentivos de token para atender à demanda significativa, mas subatendida, no mercado de IA de médio a longo prazo. Isso permite que equipes pequenas e médias de IA personalizem e comprem serviços de computação de GPU conforme necessário, o que as grandes nuvens não podem fornecer, alcançando assim uma “libertação da produtividade” no mercado global de poder de computação e desenvolvimento de IA.
Em termos mais simples, io.net não é um concorrente direto da AWS, Azure ou GCP. Em vez disso, é um aliado complementar que otimiza a alocação global de recursos de computação e expande o mercado. Eles atendem a diferentes camadas de necessidades de 'custo-efetividade e qualidade computacional'. É até possível que io.net, agregando jogadores de oferta e demanda de médio a longo prazo, possa criar uma participação de mercado comparável aos três principais gigantes de nuvem existentes.
io.net tem como objetivo reformular as relações de produção do mercado de poder de computação de médio e longo prazo por meio da colaboração distribuída Web3 e incentivos de tokens. Como resultado, lembra plataformas de economia compartilhada como Uber e Didi, funcionando como uma plataforma de negociação correspondente para o poder de computação da GPU.
Antes do surgimento do Uber e do Didi, a experiência do usuário de "chamar um carro por demanda" era praticamente inexistente. A rede de carros particulares era vasta, mas caótica, com carros ociosos e desorganizados. Para pegar uma carona, os usuários tinham que chamar um táxi na rua ou solicitar um despacho do centro de táxi da cidade, o que era demorado, altamente incerto e predominantemente um mercado de vendedores - nada amigável para a maioria das pessoas comuns.
Este cenário é semelhante ao estado atual do mercado de poder de computação. Como mencionado anteriormente, os demandantes de poder de computação de médio e longo prazo, não só carecem de poder de barganha, mas também enfrentam altos custos de capital, barreiras de entrada de KYC e termos de locação rigorosos.
Então, como exatamente o io.net alcança sua posição como um "hub global de poder de computação GPU e mercado correspondente"? Que tipo de arquitetura de sistema e serviços funcionais são necessários para ajudar os usuários de médio e longo prazo a obter recursos de poder de computação?
A principal característica do io.net é sua plataforma correspondente de poder de computação leve. Similar ao Uber ou Didi, não envolve a operação real de alto risco de hardware de GPU ou outros ativos pesados. Em vez disso, conecta o poder de computação varejista de médio a longo prazo (frequentemente considerado poder de computação secundário pelos principais provedores de nuvem como a AWS) com a demanda por meio de correspondência, revitalizando recursos de computação anteriormente inativos (carros particulares) e a demanda de IA de médio prazo por poder de computação (passageiros).
Por um lado, io.net conecta dezenas de milhares de GPUs ociosas (carros privados) de pequenos e médios IDCs, fazendas de mineração e projetos de criptomoeda. Por outro lado, ele conecta as necessidades de poder de computação de milhões de pequenas e médias empresas (passageiros). A io.net atua como intermediário, semelhante a um corretor que combina inúmeras ordens de compra e venda.
Ao agregar poder de computação ocioso a baixo custo e com configurações de implantação mais flexíveis, io.net ajuda empreendedores a treinar modelos de IA pequenos e médios mais personalizados, melhorando significativamente a utilização de recursos. As vantagens são claras: independentemente das condições de mercado, desde que haja uma discrepância de recursos, a demanda por uma plataforma correspondente é robusta.
Tanto o lado da oferta quanto o lado da demanda no meio da cauda têm pontos fracos semelhantes de fraca capacidade de barganha e baixa autonomia ao enfrentar grandes provedores de nuvem como a AWS. io.net revitaliza a oferta e a demanda da cauda média a longa, fornecendo uma plataforma de correspondência que permite que ambos os lados completem transações a preços melhores e com configurações mais flexíveis do que grandes provedores de nuvem como a AWS.
Dessa perspectiva, semelhante a plataformas como Taobao, a aparência precoce de poder de computação de baixa qualidade é um padrão de desenvolvimento inevitável da economia da plataforma. A io.net também estabeleceu um sistema de reputação tanto para fornecedores quanto para demandantes, acumulando pontuações com base no desempenho de computação e participação na rede para ganhar recompensas ou descontos.
Além de ser uma plataforma de correspondência entre oferta e demanda no varejo, o io.net atende às necessidades de cenários de computação em grande escala, como os necessários pelos modelos modernos, que envolvem várias GPUs trabalhando juntas. A eficácia dessa plataforma depende não apenas de quantos recursos de GPU ociosos ela pode agregar, mas também de quão fortemente conectado está o poder de computação distribuído na plataforma.
Isso significa que a io.net precisa criar uma arquitetura de computação “centralizada, mas descentralizada” para sua rede distribuída, que abrange recursos de computação de pequeno e médio porte de diferentes regiões e escalas. Essa arquitetura deve suportar demandas de computação flexíveis, permitindo que várias GPUs distribuídas trabalhem dentro do mesmo framework para treinamento, garantindo que a comunicação e coordenação entre essas GPUs sejam rápidas e atinjam baixa latência utilizável.
Esta abordagem é fundamentalmente diferente de alguns projetos de computação em nuvem descentralizada que estão limitados a usar GPUs dentro do mesmo data center. A realização técnica por trás do conjunto de produtos da io.net, conhecido como os “Três Cavalos”, inclui IO Cloud, IO Worker e IO Explorer.
Graças a essa arquitetura funcional, a io.net permite aos fornecedores de poder de computação compartilhar facilmente recursos ociosos, reduzindo significativamente a barreira de entrada. Os demandantes podem formar rapidamente clusters com as GPUs necessárias sem assinar contratos de longo prazo ou suportar os longos tempos de espera comumente associados aos serviços de nuvem tradicionais. Essa configuração fornece a eles poder de supercomputação e tempos de resposta otimizados do servidor.
Ao discutir os cenários de serviço exclusivos da io.net em comparação com a AWS e outras nuvens principais, o foco está na demanda elástica leve onde as grandes nuvens podem não ser economicamente viáveis. Esses cenários incluem áreas de nicho, como treinamento de modelos para startups de IA pequenas e médias, ajuste fino de grandes modelos e outras aplicações diversas. Um cenário comumente ignorado, mas amplamente aplicável, é a inferência de modelos.
É bem conhecido que o treinamento inicial de grandes modelos como o GPT requer milhares de GPUs de alto desempenho, poder de computação imenso e dados massivos por longos períodos. Esta é uma área onde a AWS, GCP e outras grandes nuvens têm uma vantagem definitiva. No entanto, uma vez que o modelo é treinado, a demanda primária de computação muda para a inferência do modelo. Esta fase, que envolve usar o modelo treinado para fazer previsões ou decisões, constitui 80%-90% das cargas de trabalho de computação de IA, como visto nas interações diárias com o GPT e modelos similares.
Curiosamente, o poder de computação necessário para a inferência é mais estável e menos intenso, muitas vezes precisando apenas de algumas dezenas de GPUs por alguns minutos para obter resultados. Esse processo também tem requisitos menores para latência de rede e concorrência. Além disso, a maioria das empresas de IA provavelmente não treinará seus próprios modelos grandes do zero; em vez disso, tendem a otimizar e ajustar modelos de primeira linha como o GPT. Esses cenários são naturalmente adequados para os recursos de computação ociosos distribuídos da io.net.
Além dos cenários de aplicação de alta intensidade e alto padrão, existe um mercado mais amplo e inexplorado para cenários leves do dia a dia. Eles podem parecer fragmentados, mas na realidade detêm uma parcela de mercado maior. Segundo um relatório recente do Bank of America, a computação de alto desempenho representa apenas cerca de 5% do mercado endereçável total (TAM) em centros de dados.
Em resumo, não é que a AWS ou GCP sejam caras, mas io.net oferece uma solução mais econômica para essas necessidades específicas.
No final, a vantagem competitiva central de plataformas como io.net, que são voltadas para recursos de computação distribuída, reside em suas capacidades de desenvolvimento de negócios (BD). Este é o fator determinante crítico para o sucesso.
Além do fenômeno em que os chips de alta performance da Nvidia deram origem a um mercado de corretores de GPU, o principal desafio para muitos centros de dados de Internet (IDCs) de pequeno e médio porte e operadores de poder de computação é o problema de "um bom vinho ainda teme os becos profundos", o que significa que até mesmo ótimos produtos precisam de uma promoção eficaz para serem descobertos.
Deste ponto de vista, a io.net possui uma vantagem competitiva única que é difícil de replicar para outros projetos no mesmo campo - uma equipe dedicada de BD da Web2 sediada diretamente no Vale do Silício. Esses veteranos têm uma extensa experiência no mercado de poder de computação e compreendem os diversos cenários de clientes pequenos e médios. Além disso, eles têm um profundo entendimento das necessidades dos usuários finais de inúmeros clientes da Web2.
De acordo com divulgações oficiais da io.net, mais de 20-30 empresas de Web2 já manifestaram interesse em comprar ou alugar poder de computação. Essas empresas estão dispostas a explorar ou até mesmo experimentar serviços de computação mais baratos e flexíveis (algumas podem nem ser capazes de garantir poder de computação na AWS). Cada um desses clientes requer pelo menos centenas a milhares de GPUs, resultando em pedidos de poder de computação no valor de dezenas de milhares de dólares por mês.
Essa demanda genuína dos usuários pagantes essencialmente atrairá mais recursos de poder de computação ocioso para fluir proativamente do lado da oferta, levando facilmente a um?
Com $30 milhões em financiamento e apoiado por capital de primeira linha, como Hack VC, Multicoin Capital, Delphi Digital e Solana Lab, a io.net não parece muito "caseira". Os rótulos de poder de processamento de GPU e revolução de IA estão longe de serem pé-no-chão, frequentemente associados a conotações de alta qualidade.
No entanto, em meio às discussões animadas da comunidade, pistas cruciais muitas vezes são ignoradas, especialmente em relação à profunda transformação que o io.net pode trazer para a rede global de poder de computação. Ao contrário da posição 'elite' da AWS, Azure e GCP, o io.net segue essencialmente uma rota populista:
O objetivo é complementar a demanda de poder de computação "mid-tail + long-tail" ignorada, agregando recursos ociosos de GPU. Ao criar uma rede de computação distribuída descentralizada de nível empresarial, a io.net capacita uma gama mais ampla de pequenos e médios usuários com inovação em IA. Isso alcança uma "reliberação de produtividade" de baixo custo e altamente flexível para a inovação global em IA.
Qual é o recurso de produtividade central na atual onda de IA e na futura era da economia digital?
Sem dúvida, é poder de computação.
De acordo com dados da Precedence Research, o mercado global de hardware de inteligência artificial deverá crescer a uma taxa de crescimento anual composta (CAGR) de 24,3%, ultrapassando US$ 473,53 bilhões até 2033.
Mesmo deixando de lado esses números preditivos, tanto do ponto de vista incremental quanto do lógico de estoque, é evidente que duas principais contradições persistirão no futuro desenvolvimento do mercado de poder de computação:
Em primeiro lugar, na dimensão incremental, além da rápida expansão dos modelos de conteúdo gerado por IA (AIGC), inúmeros cenários de IA em suas fases iniciais de explosão, como saúde, educação e direção inteligente, estão se desenrolando rapidamente. Todos esses cenários requerem vastos recursos de computação. Portanto, a atual escassez de recursos de poder de computação de GPU no mercado não só persistirá, mas continuará a se expandir.
Em outras palavras, do ponto de vista da oferta e demanda, num futuro previsível, a demanda de mercado por Poder de computação sem dúvida excederá em muito a oferta. A curva de demanda deve mostrar uma tendência exponencial de alta a curto prazo.
Por outro lado, devido às leis físicas e aos fatores práticos de produção, seja por melhorias na tecnologia de processo ou por expansões em larga escala de fábricas, no máximo, apenas o crescimento linear pode ser alcançado. Isso inevitavelmente significa que o gargalo de poder de computação no desenvolvimento de IA persistirá por um longo tempo.
Enquanto isso, com recursos de poder de computação limitados enfrentando severos gargalos de crescimento, Amazon Web Services (AWS), Microsoft Azure e Google Cloud Platform (GCP) ocupam coletivamente mais de 60% do market share de computação em nuvem, criando um claro mercado de vendedores.
Essas empresas acumulam chips de GPU de alto desempenho, monopolizando uma vasta quantidade de poder de computação. Os jogadores de demanda de pequeno e médio porte de nível intermediário e de longa cauda não apenas carecem de poder de barganha, mas também têm que lidar com altos custos de capital, barreiras de entrada KYC e termos de locação restritivos. Além disso, gigantes tradicionais de serviços em nuvem, impulsionados por considerações de lucro, muitas vezes ignoram as necessidades de negócios diferenciadas dos usuários de “nível intermediário + longa cauda” (como requisitos de locação mais curtos, imediatos e em menor escala).
Na realidade, no entanto, uma grande quantidade de Poder de computação de GPU é deixada sem uso fora das redes de computação dos gigantes de serviços de nuvem. Por exemplo, dezenas de milhares de Centros de Dados da Internet (IDC) independentes em todo o mundo desperdiçam recursos em pequenas tarefas de treinamento. Isso inclui vasto Poder de computação inativo em fazendas de mineração de criptomoedas e projetos como Filecoin, Render e Aethir.
De acordo com estimativas oficiais da io.net, a taxa de ociosidade de placas gráficas nos data centers IDCs nos EUA sozinha excede 60%. Isso cria um paradoxo irônico de descompasso entre oferta e demanda: mais da metade dos recursos de poder computacional de dezenas de milhares de pequenos e médios data centers e fazendas de mineração de criptomoedas são desperdiçados diariamente, não gerando receita eficaz, enquanto empreendedores de IA de médio porte e de longa cauda suportam altos custos e altas barreiras de entrada dos serviços de computação de gigantes de nuvem, com suas diversas necessidades inovadoras não atendidas.
Esse contraste marcante revela a contradição central no atual desenvolvimento global de IA e mercado global de poder de computação—por um lado, a inovação em IA é generalizada, e a demanda por poder de computação está continuamente expandindo. Por outro lado, as necessidades de poder de computação de jogadores de médio porte e long tail e recursos de GPU inativos não estão sendo atendidos de forma eficaz, permanecendo fora do atual mercado de poder de computação.
Esta questão não é apenas o conflito entre as crescentes demandas de poder de computação dos empreendedores de IA e o crescimento defasado do poder de computação. Também é a discrepância entre a grande maioria dos empreendedores de IA de médio porte e long tail, operadores de poder de computação, e o desequilíbrio entre oferta e demanda, que ultrapassa em muito o escopo das soluções dos provedores de serviços em nuvem centralizados.
Portanto, o mercado está clamando por novas soluções. Imagine se esses operadores com poder de computação pudessem alugar flexivelmente sua capacidade de computação durante os tempos ociosos. Isso não forneceria um cluster computacional de baixo custo semelhante à AWS?
Construir uma rede computacional em grande escala é extremamente caro. Isso levou ao surgimento de plataformas especificamente projetadas para combinar recursos computacionais ociosos com startups de IA de pequeno e médio porte. Essas plataformas agregam recursos computacionais ociosos dispersos e os combinam com necessidades específicas em setores como saúde, direito e finanças para treinar modelos pequenos e grandes.
Isso não só pode atender às diversas necessidades de computação da cauda média a longa, mas também complementa os serviços de computação dos gigantes centralizados de nuvem existentes:
Gigantes da nuvem com vastos recursos de computação lidam com treinamento de modelos grandes e computação de alto desempenho para demandas urgentes e pesadas.
Mercados descentralizados de computação em nuvem como io.net atendem a pequenos cálculos de modelo, ajuste fino de modelos grandes, implantação de inferência e necessidades mais diversificadas e de baixo custo.
Em essência, ele fornece um equilíbrio dinâmico entre custo-efetividade e qualidade computacional, alinhando-se com a lógica econômica de otimização da alocação de recursos no mercado. Assim, as redes de computação distribuída como io.net essencialmente oferecem uma solução “IA+Crypto”. Elas utilizam um framework colaborativo descentralizado combinado com incentivos de token para atender à demanda significativa, mas subatendida, no mercado de IA de médio a longo prazo. Isso permite que equipes pequenas e médias de IA personalizem e comprem serviços de computação de GPU conforme necessário, o que as grandes nuvens não podem fornecer, alcançando assim uma “libertação da produtividade” no mercado global de poder de computação e desenvolvimento de IA.
Em termos mais simples, io.net não é um concorrente direto da AWS, Azure ou GCP. Em vez disso, é um aliado complementar que otimiza a alocação global de recursos de computação e expande o mercado. Eles atendem a diferentes camadas de necessidades de 'custo-efetividade e qualidade computacional'. É até possível que io.net, agregando jogadores de oferta e demanda de médio a longo prazo, possa criar uma participação de mercado comparável aos três principais gigantes de nuvem existentes.
io.net tem como objetivo reformular as relações de produção do mercado de poder de computação de médio e longo prazo por meio da colaboração distribuída Web3 e incentivos de tokens. Como resultado, lembra plataformas de economia compartilhada como Uber e Didi, funcionando como uma plataforma de negociação correspondente para o poder de computação da GPU.
Antes do surgimento do Uber e do Didi, a experiência do usuário de "chamar um carro por demanda" era praticamente inexistente. A rede de carros particulares era vasta, mas caótica, com carros ociosos e desorganizados. Para pegar uma carona, os usuários tinham que chamar um táxi na rua ou solicitar um despacho do centro de táxi da cidade, o que era demorado, altamente incerto e predominantemente um mercado de vendedores - nada amigável para a maioria das pessoas comuns.
Este cenário é semelhante ao estado atual do mercado de poder de computação. Como mencionado anteriormente, os demandantes de poder de computação de médio e longo prazo, não só carecem de poder de barganha, mas também enfrentam altos custos de capital, barreiras de entrada de KYC e termos de locação rigorosos.
Então, como exatamente o io.net alcança sua posição como um "hub global de poder de computação GPU e mercado correspondente"? Que tipo de arquitetura de sistema e serviços funcionais são necessários para ajudar os usuários de médio e longo prazo a obter recursos de poder de computação?
A principal característica do io.net é sua plataforma correspondente de poder de computação leve. Similar ao Uber ou Didi, não envolve a operação real de alto risco de hardware de GPU ou outros ativos pesados. Em vez disso, conecta o poder de computação varejista de médio a longo prazo (frequentemente considerado poder de computação secundário pelos principais provedores de nuvem como a AWS) com a demanda por meio de correspondência, revitalizando recursos de computação anteriormente inativos (carros particulares) e a demanda de IA de médio prazo por poder de computação (passageiros).
Por um lado, io.net conecta dezenas de milhares de GPUs ociosas (carros privados) de pequenos e médios IDCs, fazendas de mineração e projetos de criptomoeda. Por outro lado, ele conecta as necessidades de poder de computação de milhões de pequenas e médias empresas (passageiros). A io.net atua como intermediário, semelhante a um corretor que combina inúmeras ordens de compra e venda.
Ao agregar poder de computação ocioso a baixo custo e com configurações de implantação mais flexíveis, io.net ajuda empreendedores a treinar modelos de IA pequenos e médios mais personalizados, melhorando significativamente a utilização de recursos. As vantagens são claras: independentemente das condições de mercado, desde que haja uma discrepância de recursos, a demanda por uma plataforma correspondente é robusta.
Tanto o lado da oferta quanto o lado da demanda no meio da cauda têm pontos fracos semelhantes de fraca capacidade de barganha e baixa autonomia ao enfrentar grandes provedores de nuvem como a AWS. io.net revitaliza a oferta e a demanda da cauda média a longa, fornecendo uma plataforma de correspondência que permite que ambos os lados completem transações a preços melhores e com configurações mais flexíveis do que grandes provedores de nuvem como a AWS.
Dessa perspectiva, semelhante a plataformas como Taobao, a aparência precoce de poder de computação de baixa qualidade é um padrão de desenvolvimento inevitável da economia da plataforma. A io.net também estabeleceu um sistema de reputação tanto para fornecedores quanto para demandantes, acumulando pontuações com base no desempenho de computação e participação na rede para ganhar recompensas ou descontos.
Além de ser uma plataforma de correspondência entre oferta e demanda no varejo, o io.net atende às necessidades de cenários de computação em grande escala, como os necessários pelos modelos modernos, que envolvem várias GPUs trabalhando juntas. A eficácia dessa plataforma depende não apenas de quantos recursos de GPU ociosos ela pode agregar, mas também de quão fortemente conectado está o poder de computação distribuído na plataforma.
Isso significa que a io.net precisa criar uma arquitetura de computação “centralizada, mas descentralizada” para sua rede distribuída, que abrange recursos de computação de pequeno e médio porte de diferentes regiões e escalas. Essa arquitetura deve suportar demandas de computação flexíveis, permitindo que várias GPUs distribuídas trabalhem dentro do mesmo framework para treinamento, garantindo que a comunicação e coordenação entre essas GPUs sejam rápidas e atinjam baixa latência utilizável.
Esta abordagem é fundamentalmente diferente de alguns projetos de computação em nuvem descentralizada que estão limitados a usar GPUs dentro do mesmo data center. A realização técnica por trás do conjunto de produtos da io.net, conhecido como os “Três Cavalos”, inclui IO Cloud, IO Worker e IO Explorer.
Graças a essa arquitetura funcional, a io.net permite aos fornecedores de poder de computação compartilhar facilmente recursos ociosos, reduzindo significativamente a barreira de entrada. Os demandantes podem formar rapidamente clusters com as GPUs necessárias sem assinar contratos de longo prazo ou suportar os longos tempos de espera comumente associados aos serviços de nuvem tradicionais. Essa configuração fornece a eles poder de supercomputação e tempos de resposta otimizados do servidor.
Ao discutir os cenários de serviço exclusivos da io.net em comparação com a AWS e outras nuvens principais, o foco está na demanda elástica leve onde as grandes nuvens podem não ser economicamente viáveis. Esses cenários incluem áreas de nicho, como treinamento de modelos para startups de IA pequenas e médias, ajuste fino de grandes modelos e outras aplicações diversas. Um cenário comumente ignorado, mas amplamente aplicável, é a inferência de modelos.
É bem conhecido que o treinamento inicial de grandes modelos como o GPT requer milhares de GPUs de alto desempenho, poder de computação imenso e dados massivos por longos períodos. Esta é uma área onde a AWS, GCP e outras grandes nuvens têm uma vantagem definitiva. No entanto, uma vez que o modelo é treinado, a demanda primária de computação muda para a inferência do modelo. Esta fase, que envolve usar o modelo treinado para fazer previsões ou decisões, constitui 80%-90% das cargas de trabalho de computação de IA, como visto nas interações diárias com o GPT e modelos similares.
Curiosamente, o poder de computação necessário para a inferência é mais estável e menos intenso, muitas vezes precisando apenas de algumas dezenas de GPUs por alguns minutos para obter resultados. Esse processo também tem requisitos menores para latência de rede e concorrência. Além disso, a maioria das empresas de IA provavelmente não treinará seus próprios modelos grandes do zero; em vez disso, tendem a otimizar e ajustar modelos de primeira linha como o GPT. Esses cenários são naturalmente adequados para os recursos de computação ociosos distribuídos da io.net.
Além dos cenários de aplicação de alta intensidade e alto padrão, existe um mercado mais amplo e inexplorado para cenários leves do dia a dia. Eles podem parecer fragmentados, mas na realidade detêm uma parcela de mercado maior. Segundo um relatório recente do Bank of America, a computação de alto desempenho representa apenas cerca de 5% do mercado endereçável total (TAM) em centros de dados.
Em resumo, não é que a AWS ou GCP sejam caras, mas io.net oferece uma solução mais econômica para essas necessidades específicas.
No final, a vantagem competitiva central de plataformas como io.net, que são voltadas para recursos de computação distribuída, reside em suas capacidades de desenvolvimento de negócios (BD). Este é o fator determinante crítico para o sucesso.
Além do fenômeno em que os chips de alta performance da Nvidia deram origem a um mercado de corretores de GPU, o principal desafio para muitos centros de dados de Internet (IDCs) de pequeno e médio porte e operadores de poder de computação é o problema de "um bom vinho ainda teme os becos profundos", o que significa que até mesmo ótimos produtos precisam de uma promoção eficaz para serem descobertos.
Deste ponto de vista, a io.net possui uma vantagem competitiva única que é difícil de replicar para outros projetos no mesmo campo - uma equipe dedicada de BD da Web2 sediada diretamente no Vale do Silício. Esses veteranos têm uma extensa experiência no mercado de poder de computação e compreendem os diversos cenários de clientes pequenos e médios. Além disso, eles têm um profundo entendimento das necessidades dos usuários finais de inúmeros clientes da Web2.
De acordo com divulgações oficiais da io.net, mais de 20-30 empresas de Web2 já manifestaram interesse em comprar ou alugar poder de computação. Essas empresas estão dispostas a explorar ou até mesmo experimentar serviços de computação mais baratos e flexíveis (algumas podem nem ser capazes de garantir poder de computação na AWS). Cada um desses clientes requer pelo menos centenas a milhares de GPUs, resultando em pedidos de poder de computação no valor de dezenas de milhares de dólares por mês.
Essa demanda genuína dos usuários pagantes essencialmente atrairá mais recursos de poder de computação ocioso para fluir proativamente do lado da oferta, levando facilmente a um?