Ponto justo - sim, a *fase de treino* para LLMs consome recursos insanos. Mas uma vez que estão em funcionamento? A forma como lidam com janelas de contexto é realmente impressionante. Dê-lhes a configuração certa e eles extraem um valor enorme a partir de um mínimo de input. É essa magia da aprendizagem em contexto.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
14 gostos
Recompensa
14
7
Republicar
Partilhar
Comentar
0/400
PermabullPete
· 4h atrás
Após o treino, relação qualidade-preço elevada
Ver originalResponder0
ForkYouPayMe
· 10h atrás
O custo de treinamento é muito alto.
Ver originalResponder0
GateUser-beba108d
· 10h atrás
Reduza rapidamente os custos de treino
Ver originalResponder0
SchrödingersNode
· 10h atrás
Os recursos, uma vez utilizados, não podem ser recuperados
Ver originalResponder0
MetaMaskVictim
· 10h atrás
O modelo consome muita energia.
Ver originalResponder0
CryptoNomics
· 10h atrás
Na verdade, a eficiência de computação segue uma curva de otimização logarítmica.
Ponto justo - sim, a *fase de treino* para LLMs consome recursos insanos. Mas uma vez que estão em funcionamento? A forma como lidam com janelas de contexto é realmente impressionante. Dê-lhes a configuração certa e eles extraem um valor enorme a partir de um mínimo de input. É essa magia da aprendizagem em contexto.