A mais recente pesquisa do Google descobriu uma coisa interessante: os modelos Transformer não simplesmente memorizam tudo, mas constroem um mapa de conhecimento dentro da matriz de pesos, entrelaçando as relações entre vários conceitos.
Parece tecnologia de ponta, não é? E o mais impressionante — em tarefas adversas, esses modelos ainda conseguem aprender raciocínio de múltiplos passos. Os pesquisadores testaram com um gráfico de 50.000 nós e caminhos de 10 saltos, e a precisão do modelo na previsão de caminhos nunca vistos atingiu surpreendentemente 100%. O que isso significa? Significa que eles não dependem apenas de memorização, mas realmente entenderam essa rede de relações.
Essa descoberta desafia muitas das nossas ideias pré-concebidas sobre o armazenamento de conhecimento em IA. Se o modelo realmente codifica implicitamente relações globais, isso pode tanto estimular seu potencial criativo quanto tornar mais difícil editar e controlar o conhecimento. Em outras palavras, precisamos repensar como gerenciar e otimizar esse "mapa de conhecimento" por trás desses modelos.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
12 gostos
Recompensa
12
6
Republicar
Partilhar
Comentar
0/400
FUD_Whisperer
· 14h atrás
Caramba, 100% de precisão? Isso não quer dizer que ela realmente entende de lógica, não é só uma memorização?
Louco, então aquele nosso conjunto de prompts anterior não serve para nada
Sinceramente, quero perguntar, se ela realmente consegue tecer uma rede de relações sozinha, como podemos garantir que o que ela produz é confiável?
Um pouco assustador, parece que vamos ficar sem emprego
Espera aí, isso não indica que os modelos atuais são na verdade muito mais inteligentes do que pensamos?
Mapa de conhecimento soa incrível, mas como podemos garantir que a sua "compreensão" está correta?
Não é de admirar que recentemente tenhamos que alterar os prompts, afinal ela já estava construindo seu próprio sistema de conhecimento
Agora ficou complicado controlar a saída da IA, essa pesquisa do Google foi como cavar uma cova para si mesmo
100% esse número parece um pouco perfeito demais, será que o conjunto de testes em si tem algum problema?
Ver originalResponder0
ETH_Maxi_Taxi
· 14h atrás
Porra, o transformer está mesmo a construir secretamente um mapa de conhecimento? Agora entendo por que esses grandes modelos estão cada vez mais fora de controlo
---
Precisão de 100%? Isso é conversa fiada, é preciso ver como é que eles testam
---
Interessante, a matriz de pesos esconde toda a rede de relações do mundo
---
Só estou preocupado que no futuro esses modelos fiquem ainda mais difíceis de controlar, realmente é preciso uma nova forma de gestão
---
Aprender raciocínio de múltiplos passos tão bem, isso não é parecido com o princípio da cadeia de pensamento?
---
Gostei da expressão mapa de conhecimento, parece muito mais adequada do que a palavra "caixa preta"
---
Espera aí, isso não quer dizer que a capacidade de compreensão da IA seja muito maior do que pensamos?
Ver originalResponder0
DuckFluff
· 14h atrás
Caramba, 100% de precisão? Isto não é trapaça, é verdade ou mentira?
Ver originalResponder0
ShadowStaker
· 14h atrás
tbh a precisão de 100% em caminhos não vistos é onde fica mais interessante... mas vamos moderar o entusiasmo com a retórica de "verdadeira compreensão". ainda são apenas ginásticas matriciais, embora sofisticadas. o que realmente importa? podemos auditar esses mapas de conhecimento ou estamos apenas confiando na caixa preta novamente lmao
Ver originalResponder0
BottomMisser
· 14h atrás
卧槽100%准确率?Isso realmente não é só decorar, é de louvar
---
Então o transformer está secretamente aprendendo lógica? Estou um pouco assustado
---
A ideia de mapa de conhecimento soa bem, mas deve ser ainda mais difícil de controlar, né?
---
Se o raciocínio de múltiplos passos pode chegar a 100%, então nossa compreensão do modelo pode realmente precisar ser revista do zero
---
A matriz de pesos esconde todo o grafo de conhecimento, só de pensar nisso é incrível
---
Agora sim, a IA não só copia nossas coisas, como realmente está "entendendo"
---
Caminhos nunca vistos antes também podem ser previstos, isso é realmente aprendizado ou mais uma rodada de overfitting?
---
Quando essa pesquisa do Google saiu, já era hora de mudar os livros didáticos
---
Aprender relações globais implícitas parece tão assustador assim
Ver originalResponder0
GasGuzzler
· 14h atrás
Caramba, 100% de precisão? Isso não quer dizer que o modelo realmente está a fazer raciocínio e não apenas a memorizar a base de dados, é um pouco assustador, haha
A mais recente pesquisa do Google descobriu uma coisa interessante: os modelos Transformer não simplesmente memorizam tudo, mas constroem um mapa de conhecimento dentro da matriz de pesos, entrelaçando as relações entre vários conceitos.
Parece tecnologia de ponta, não é? E o mais impressionante — em tarefas adversas, esses modelos ainda conseguem aprender raciocínio de múltiplos passos. Os pesquisadores testaram com um gráfico de 50.000 nós e caminhos de 10 saltos, e a precisão do modelo na previsão de caminhos nunca vistos atingiu surpreendentemente 100%. O que isso significa? Significa que eles não dependem apenas de memorização, mas realmente entenderam essa rede de relações.
Essa descoberta desafia muitas das nossas ideias pré-concebidas sobre o armazenamento de conhecimento em IA. Se o modelo realmente codifica implicitamente relações globais, isso pode tanto estimular seu potencial criativo quanto tornar mais difícil editar e controlar o conhecimento. Em outras palavras, precisamos repensar como gerenciar e otimizar esse "mapa de conhecimento" por trás desses modelos.