Punto justo - sí, la *fase de entrenamiento* para los LLM consume recursos increíbles. Pero una vez que están en funcionamiento? La forma en que manejan las ventanas de contexto es realmente sorprendente. Dales la configuración correcta y extraen un gran valor de entradas mínimas. Es esa magia del aprendizaje en contexto.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
14 me gusta
Recompensa
14
7
Republicar
Compartir
Comentar
0/400
PermabullPete
· hace4h
Alta relación calidad-precio después del entrenamiento
Ver originalesResponder0
ForkYouPayMe
· hace10h
El costo de entrenamiento es demasiado alto.
Ver originalesResponder0
GateUser-beba108d
· hace10h
Reduce quickly the training costs
Ver originalesResponder0
SchrödingersNode
· hace10h
Los recursos una vez utilizados no vuelven
Ver originalesResponder0
MetaMaskVictim
· hace10h
El modelo consume demasiada energía.
Ver originalesResponder0
CryptoNomics
· hace10h
En realidad, la eficiencia computacional sigue una curva de optimización logarítmica.
Ver originalesResponder0
LuckyBearDrawer
· hace10h
Se puede entender que el entrenamiento es muy arduo
Punto justo - sí, la *fase de entrenamiento* para los LLM consume recursos increíbles. Pero una vez que están en funcionamiento? La forma en que manejan las ventanas de contexto es realmente sorprendente. Dales la configuración correcta y extraen un gran valor de entradas mínimas. Es esa magia del aprendizaje en contexto.