A mais recente pesquisa do Google descobriu uma coisa interessante: os modelos Transformer não simplesmente memorizam tudo, mas constroem um mapa de conhecimento dentro da matriz de pesos, entrelaçando as relações entre vários conceitos.
Parece tecnologia de ponta, não é? E o mais impressionante — em tarefas adversas, esses modelos ainda conseguem aprender raciocínio de múltiplos passos. Os pesquisadores testaram com um gráfico de 50.000 nós e caminhos de 10 saltos, e a precisão do modelo na previsão de caminhos nunca vistos atingiu surpreendentemente 100%. O que isso significa? Significa que eles não dependem apenas de memorização, mas realmente entenderam essa rede de relações.
Essa descoberta desafia muitas das nossas ideias pré-concebidas sobre o armazenamento de conhecimento em IA. Se o modelo realmente codifica implicitamente relações globais, isso pode tanto estimular seu potencial criativo quanto tornar mais difícil editar e controlar o conhecimento. Em outras palavras, precisamos repensar como gerenciar e otimizar esse "mapa de conhecimento" por trás desses modelos.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
15 Curtidas
Recompensa
15
9
Repostar
Compartilhar
Comentário
0/400
GateUser-74b10196
· 23h atrás
Caramba, 100% de precisão? Isso não quer dizer que o transformer realmente está a «compreender» e não apenas a memorizar, é incrível demais
Ver originalResponder0
GasFeeSobber
· 23h atrás
100% precisão? Isso é que é realmente assustador
---
Então o transformer não é apenas um papagaio a repetir, ele realmente faz raciocínio?
---
A metáfora do mapa de conhecimento é excelente, de repente entendi por que eles são tão inteligentes
---
Espera aí, o codificação implícita de relações globais não indica que atualmente não conseguimos controlar o que eles estão pensando?
---
50.000 nós, 10 saltos e ainda 100%, isso já não é questão de memória, né?
---
Sério, quer dizer que precisamos reavaliar toda a questão da segurança em IA?
---
A matriz de pesos esconde um mapa de conhecimento... parece que descobrimos um novo continente
---
Caminhos que nunca vimos antes podem ser previstos, isso mostra que a profundidade da compreensão é maior do que imaginávamos
---
Mas como podemos realmente gerenciar bem esse "mapa"? Essa é a verdadeira dificuldade
Ver originalResponder0
LiquidationAlert
· 2025-12-31 15:43
Caramba, 100% de precisão? Este rapaz realmente não está a exagerar
Ver originalResponder0
FUD_Whisperer
· 2025-12-30 09:58
Caramba, 100% de precisão? Isso não quer dizer que ela realmente entende de lógica, não é só uma memorização?
Louco, então aquele nosso conjunto de prompts anterior não serve para nada
Sinceramente, quero perguntar, se ela realmente consegue tecer uma rede de relações sozinha, como podemos garantir que o que ela produz é confiável?
Um pouco assustador, parece que vamos ficar sem emprego
Espera aí, isso não indica que os modelos atuais são na verdade muito mais inteligentes do que pensamos?
Mapa de conhecimento soa incrível, mas como podemos garantir que a sua "compreensão" está correta?
Não é de admirar que recentemente tenhamos que alterar os prompts, afinal ela já estava construindo seu próprio sistema de conhecimento
Agora ficou complicado controlar a saída da IA, essa pesquisa do Google foi como cavar uma cova para si mesmo
100% esse número parece um pouco perfeito demais, será que o conjunto de testes em si tem algum problema?
Ver originalResponder0
ETH_Maxi_Taxi
· 2025-12-30 09:57
Porra, o transformer está mesmo a construir secretamente um mapa de conhecimento? Agora entendo por que esses grandes modelos estão cada vez mais fora de controlo
---
Precisão de 100%? Isso é conversa fiada, é preciso ver como é que eles testam
---
Interessante, a matriz de pesos esconde toda a rede de relações do mundo
---
Só estou preocupado que no futuro esses modelos fiquem ainda mais difíceis de controlar, realmente é preciso uma nova forma de gestão
---
Aprender raciocínio de múltiplos passos tão bem, isso não é parecido com o princípio da cadeia de pensamento?
---
Gostei da expressão mapa de conhecimento, parece muito mais adequada do que a palavra "caixa preta"
---
Espera aí, isso não quer dizer que a capacidade de compreensão da IA seja muito maior do que pensamos?
Ver originalResponder0
DuckFluff
· 2025-12-30 09:55
Caramba, 100% de precisão? Isto não é trapaça, é verdade ou mentira?
Ver originalResponder0
ShadowStaker
· 2025-12-30 09:54
tbh a precisão de 100% em caminhos não vistos é onde fica mais interessante... mas vamos moderar o entusiasmo com a retórica de "verdadeira compreensão". ainda são apenas ginásticas matriciais, embora sofisticadas. o que realmente importa? podemos auditar esses mapas de conhecimento ou estamos apenas confiando na caixa preta novamente lmao
Ver originalResponder0
BottomMisser
· 2025-12-30 09:41
卧槽100%准确率?Isso realmente não é só decorar, é de louvar
---
Então o transformer está secretamente aprendendo lógica? Estou um pouco assustado
---
A ideia de mapa de conhecimento soa bem, mas deve ser ainda mais difícil de controlar, né?
---
Se o raciocínio de múltiplos passos pode chegar a 100%, então nossa compreensão do modelo pode realmente precisar ser revista do zero
---
A matriz de pesos esconde todo o grafo de conhecimento, só de pensar nisso é incrível
---
Agora sim, a IA não só copia nossas coisas, como realmente está "entendendo"
---
Caminhos nunca vistos antes também podem ser previstos, isso é realmente aprendizado ou mais uma rodada de overfitting?
---
Quando essa pesquisa do Google saiu, já era hora de mudar os livros didáticos
---
Aprender relações globais implícitas parece tão assustador assim
Ver originalResponder0
GasGuzzler
· 2025-12-30 09:35
Caramba, 100% de precisão? Isso não quer dizer que o modelo realmente está a fazer raciocínio e não apenas a memorizar a base de dados, é um pouco assustador, haha
A mais recente pesquisa do Google descobriu uma coisa interessante: os modelos Transformer não simplesmente memorizam tudo, mas constroem um mapa de conhecimento dentro da matriz de pesos, entrelaçando as relações entre vários conceitos.
Parece tecnologia de ponta, não é? E o mais impressionante — em tarefas adversas, esses modelos ainda conseguem aprender raciocínio de múltiplos passos. Os pesquisadores testaram com um gráfico de 50.000 nós e caminhos de 10 saltos, e a precisão do modelo na previsão de caminhos nunca vistos atingiu surpreendentemente 100%. O que isso significa? Significa que eles não dependem apenas de memorização, mas realmente entenderam essa rede de relações.
Essa descoberta desafia muitas das nossas ideias pré-concebidas sobre o armazenamento de conhecimento em IA. Se o modelo realmente codifica implicitamente relações globais, isso pode tanto estimular seu potencial criativo quanto tornar mais difícil editar e controlar o conhecimento. Em outras palavras, precisamos repensar como gerenciar e otimizar esse "mapa de conhecimento" por trás desses modelos.