C'est vrai - ouais, la *phase d'entraînement* pour les LLM consomme des ressources incroyables. Mais une fois qu'ils fonctionnent ? La façon dont ils gèrent les fenêtres de contexte est en fait assez incroyable. Donnez-leur la bonne configuration et ils extraient une valeur massive à partir d'un minimum d'entrée. C'est cette magie de l'apprentissage en contexte.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
13 J'aime
Récompense
13
6
Reposter
Partager
Commentaire
0/400
ForkYouPayMe
· Il y a 4h
Le coût de l'entraînement est trop élevé.
Voir l'originalRépondre0
GateUser-beba108d
· Il y a 4h
Réduisez rapidement le coût de formation
Voir l'originalRépondre0
SchrödingersNode
· Il y a 4h
Les ressources disparaissent à jamais
Voir l'originalRépondre0
MetaMaskVictim
· Il y a 4h
Le modèle consomme trop d'énergie.
Voir l'originalRépondre0
CryptoNomics
· Il y a 5h
En fait, l'efficacité de calcul suit une courbe d'optimisation logarithmique.
C'est vrai - ouais, la *phase d'entraînement* pour les LLM consomme des ressources incroyables. Mais une fois qu'ils fonctionnent ? La façon dont ils gèrent les fenêtres de contexte est en fait assez incroyable. Donnez-leur la bonne configuration et ils extraient une valeur massive à partir d'un minimum d'entrée. C'est cette magie de l'apprentissage en contexte.