Entrevista | As grandes empresas de tecnologia estão a treinar IA com dados inúteis: Intuição

Os modelos de IA estão a tornar-se mais poderosos, mas os dados em que são treinados estão a piorar, diz o fundador da Intuition, Billy Luedtke. Resumo

  • A IA é apenas tão boa quanto os dados que lhe fornecemos, diz Billy Luedtke, fundador da Intuition
  • Estamos numa era de “entrada e saída desordenada”, à medida que a IA se torna recursiva
  • Modelos descentralizados têm a vantagem em tecnologia e experiência do utilizador

À medida que os sistemas de IA se tornam mais predominantes, os usuários encontram cada vez mais limitações que são difíceis de corrigir. Embora os modelos melhorem, os dados subjacentes nos quais esses modelos são treinados permanecem os mesmos. Para piorar, a recursão, ou modelos de IA treinando em dados gerados por outra IA, pode realmente agravar a situação.

Para falar sobre o futuro da IA, o crypto.news conversou com Billy Luedtke, fundador da Intuition, um protocolo descentralizado focado em trazer atribuição verificável, reputação e propriedade de dados para a IA. Luedtke explica por que os conjuntos de dados atuais para IA são fundamentalmente defeituosos e o que pode ser feito para corrigir isso.

Crypto.news: Neste momento, todos estão focados na infraestrutura de IA — GPUs, energia, centros de dados. As pessoas estão a subestimar a importância da camada de confiança na IA? Por que é importante?

Billy Luedtke: 100%. As pessoas definitivamente estão subestimando isso — e isso importa por várias razões.

Primeiro, estamos entrando no que eu chamo de uma era de “entrada e saída desordenada”. A IA é tão boa quanto os dados que consome. Mas esses dados — especialmente da web aberta — estão em grande parte poluídos. Não são limpos. Não refletem a intenção humana. Grande parte vem de comportamentos gamificados online: gostos, avaliações, truques de engajamento — tudo filtrado através de algoritmos otimizados para atenção.

Portanto, quando a IA navega na internet, o que vê não é uma imagem holística de quem somos. Está a ver pessoas a jogar com a plataforma. Eu não me comporto da mesma forma no Twitter que na vida real. Nenhum de nós o faz. Estamos a otimizar para o algoritmo — não a expressar pensamentos genuínos.

É recursivo, também. As plataformas nos treinam, e nós alimentamos comportamentos mais distorcidos. Isso cria um ciclo de feedback — uma espiral — que distorce ainda mais a percepção da IA sobre a humanidade. Não estamos ensinando o que pensamos; estamos ensinando o que achamos que irá receber curtidas.

A média dos utilizadores não está a pesquisar no Google, a comparar fontes ou a pensar de forma crítica. Estão apenas a perguntar ao ChatGPT ou a outro modelo e a aceitar a resposta pelo seu valor nominal.

Isso é perigoso. Se o modelo for opaco — uma caixa-preta — e a empresa que o controla também controla quais informações você vê ou não vê, então isso é controle total da narrativa. É centralizado, irresponsável e extremamente poderoso.

Imagine pedir ao Grok o melhor podcast, e a resposta é quem pagou mais ao Elon. Isso não é inteligência — é apenas publicidade disfarçada.

CN: Então como podemos resolver isso? Como podemos construir sistemas que priorizem a verdade e o valor em vez do engajamento?

BL: Precisamos inverter os incentivos. Estes sistemas devem servir as pessoas — não instituições, não acionistas, não anunciantes. Isso significa construir uma nova camada para a internet: primitivos de identidade e reputação. É isso que estamos a fazer na Intuition.

Precisamos de atribuição verificável: quem disse o quê, quando e em que contexto. E precisamos de uma reputação portátil e descentralizada que ajude a determinar quanto podemos confiar em qualquer fonte de dados — não com base em impressões, mas em um histórico contextual real.

O Reddit é um exemplo perfeito. É uma das maiores fontes de dados de treino para modelos. Mas se um utilizador diz sarcasticamente: “Apenas k*** a ti mesmo,” isso pode ser extraído e aparecer na recomendação de um modelo para alguém que pede conselhos médicos.

Isso é horripilante — e é o que acontece quando os modelos não têm contexto, atribuição ou ponderação de reputação. Precisamos saber: Esta pessoa é credível em medicina? É respeitável em finanças? Esta é uma fonte confiável, ou apenas outro comentário aleatório?

CN: Quando você fala sobre atribuição e reputação, esses dados precisam ser armazenados em algum lugar. O que você pensa sobre isso em termos de infraestrutura — especialmente com questões como direitos autorais e compensação?

BL: É exatamente isso que estamos a resolver na Intuition. Uma vez que você tenha primitivas de atribuição verificáveis, você sabe quem criou quais dados. Isso permite a propriedade tokenizada do conhecimento — e com isso, a compensação.

Assim, em vez de os seus dados viverem nos servidores do Google ou nas APIs da OpenAI, eles vivem em um grafo de conhecimento descentralizado. Todos possuem o que contribuem. Quando os seus dados são percorridos ou utilizados em uma saída de IA, você recebe uma parte do valor que gera.

Isso importa porque agora somos servos digitais. Gastamos nossos recursos mais valiosos — tempo, atenção e criatividade — gerando dados que alguém monetiza. O YouTube não é valioso porque hospeda vídeos; é valioso porque as pessoas o curam. Sem curtidas, comentários ou inscrições, o YouTube não vale nada.

Então, queremos um mundo onde todos possam ganhar com o valor que geram — mesmo se você não for um influenciador ou extrovertido. Se você está consistentemente à frente na descoberta de novos artistas, por exemplo, seu gosto tem valor. Você deve ser capaz de construir uma reputação em torno disso e monetizá-la.

CN: Mas mesmo que obtenhamos transparência, esses modelos ainda são realmente difíceis de interpretar. A própria OpenAI não consegue explicar completamente como seus modelos tomam decisões. O que acontece então?

BL: Excelente ponto. Não conseguimos interpretar completamente o comportamento do modelo — são apenas demasiado complexos. Mas o que podemos controlar é os dados de treino. Essa é a nossa alavanca.

Vou dar-te um exemplo: ouvi falar de um artigo de pesquisa onde uma IA estava obcecada por corujas e outra era ótima em matemática. Elas apenas treinaram juntas em tarefas relacionadas com a matemática. Mas no final, a IA de matemática também começou a amar corujas — apenas absorvendo o padrão da outra.

É louco como esses padrões são subliminares e sutis. Portanto, a única defesa real é a intenção. Precisamos ser deliberados sobre quais dados alimentamos esses modelos. Precisamos “nos curar”, de certa forma, para nos apresentarmos online de uma maneira mais autêntica e construtiva. Porque a IA sempre refletirá os valores e distorções de seus criadores.

CN: Vamos falar de negócios. OpenAI está queimando dinheiro. A infraestrutura deles é extremamente cara. Como pode um sistema descentralizado como o Intuition competir — financeiramente e tecnicamente?

BL: Temos duas vantagens principais: composabilidade e coordenação.

Ecossistemas descentralizados — especialmente em cripto — são incrivelmente bons em coordenação. Temos equipes globais e distribuídas a trabalhar em diferentes componentes do mesmo problema maior. Em vez de uma empresa queima bilhões lutando contra o mundo, temos centenas de contribuintes alinhados a construir ferramentas interoperáveis.

É como um mosaico. Uma equipa trabalha na reputação dos agentes, outra no armazenamento descentralizado, outra nos primitivos de identidade — e podemos juntar tudo isso.

Esse é o superpoder.

A segunda vantagem é a experiência do usuário. A OpenAI está presa ao seu fosso. Eles não podem permitir que você transfira seu contexto do ChatGPT para o Grok ou Anthropic — isso erosionaria sua defesa. Mas nós não nos preocupamos com o bloqueio de fornecedor.

No nosso sistema, você poderá possuir o seu contexto, levá-lo com você e conectá-lo a qualquer agente que desejar. Isso proporciona uma experiência melhor. As pessoas vão escolhê-lo.

****CN:Quais são os custos de infraestrutura? Executar grandes modelos é extremamente caro. Você vê um mundo onde modelos menores são executados localmente?

BL: Sim, 100%. Na verdade, eu acho que é para lá que estamos indo — em direção a muitos pequenos modelos funcionando localmente, conectados como neurônios em um enxame distribuído.

Em vez de um grande centro de dados monolítico, você tem bilhões de dispositivos de consumo contribuindo com computação. Se conseguirmos coordená-los — que é o que o cripto se destaca — isso se torna uma arquitetura superior.

E é por isso que também estamos a construir camadas de reputação de agentes. Os pedidos podem ser encaminhados para o agente especializado certo para o trabalho. Não precisa de um modelo massivo para fazer tudo. Apenas precisa de um sistema inteligente para encaminhamento de tarefas — como uma camada de API entre milhões de agentes.

CN: E a determinismo? Os LLMs não são bons para tarefas como matemática, onde você deseja respostas exatas. Podemos combinar código determinístico com IA?

BL: É isso que eu quero. Precisamos trazer de volta o determinismo para o ciclo.

Começámos com raciocínio simbólico — totalmente determinístico — e depois mergulhámos profundamente no aprendizado profundo, que é não determinístico. Isso nos deu a explosão que estamos vendo agora. Mas o futuro é neurosimbólico — combinando o melhor de ambos.

Deixe a IA lidar com o raciocínio difuso. Mas também deixe-a acionar módulos determinísticos — scripts, funções, motores de lógica — onde você precisa de precisão. Pense: “Qual dos meus amigos gosta deste restaurante?” Isso deve ser 100% determinístico.

****CN:Aumentando a visão: temos visto empresas integrar IA nas suas operações. Mas os resultados têm sido mistos. Acredita que a geração atual de LLMs realmente aumenta a produtividade?

BL: Absolutamente. A singularidade já está aqui — está apenas distribuída de forma desigual.

Se você não está usando IA em seu fluxo de trabalho, especialmente para código ou conteúdo, você está trabalhando a uma fração da velocidade de outros. A tecnologia é real e os ganhos de eficiência são enormes. A disrupção já aconteceu. As pessoas simplesmente ainda não perceberam isso totalmente.

CN: Última pergunta. Muitas pessoas estão dizendo que isso é uma bolha. O capital de risco está secando. A OpenAI está queimando dinheiro. A Nvidia está financiando seus próprios clientes. Como isso termina?

BL: Sim, há uma bolha — mas a tecnologia é real. Todas as bolhas estouram, mas o que fica depois são as tecnologias fundamentais. A IA vai ser uma delas. O dinheiro burro — todos aqueles aplicativos superficiais sem inovação real — isso está a ser eliminado. Mas as equipas de infraestrutura profunda? Elas vão sobreviver.

Na verdade, isso pode acontecer de duas maneiras: temos uma correção suave e voltamos à realidade, mas o progresso continua. Ou, os ganhos de produtividade são tão imensos que a IA se torna uma força deflacionária na economia. O PIB poderia aumentar 10x ou 100x em capacidade de produção. Se isso acontecer, o gasto valeu a pena — nós evoluímos como sociedade.

De qualquer forma, sou otimista. Haverá caos e deslocamento de empregos, sim — mas também o potencial para um mundo abundante, pós-escassez, se construirmos a base certa.

ON-2.23%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)