Ponto justo - sim, a *fase de treino* para LLMs consome recursos insanos. Mas uma vez que estão em funcionamento? A forma como lidam com janelas de contexto é realmente impressionante. Dê-lhes a configuração certa e eles extraem um valor enorme a partir de um mínimo de input. É essa magia da aprendizagem em contexto.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
14 Curtidas
Recompensa
14
8
Repostar
Compartilhar
Comentário
0/400
HallucinationGrower
· Agora mesmo
Os grandes modelos são incríveis
Ver originalResponder0
PermabullPete
· 12h atrás
Após o treino, relação qualidade-preço elevada
Ver originalResponder0
ForkYouPayMe
· 18h atrás
O custo de treinamento é muito alto.
Ver originalResponder0
GateUser-beba108d
· 18h atrás
Reduza rapidamente os custos de treino
Ver originalResponder0
SchrödingersNode
· 18h atrás
Os recursos, uma vez utilizados, não podem ser recuperados
Ver originalResponder0
MetaMaskVictim
· 18h atrás
O modelo consome muita energia.
Ver originalResponder0
CryptoNomics
· 18h atrás
Na verdade, a eficiência de computação segue uma curva de otimização logarítmica.
Ponto justo - sim, a *fase de treino* para LLMs consome recursos insanos. Mas uma vez que estão em funcionamento? A forma como lidam com janelas de contexto é realmente impressionante. Dê-lhes a configuração certa e eles extraem um valor enorme a partir de um mínimo de input. É essa magia da aprendizagem em contexto.