Escanea para descargar la aplicación Gate
qrCode
Más opciones de descarga
No volver a recordar hoy

Los grandes modelos de lenguaje claramente retienen toneladas de datos de entrenamiento en sus redes neuronales, pero aquí está lo que me molesta: nadie realmente entiende dónde vive esta información memorizada dentro de estos modelos. ¿Qué capas la retienen? ¿Cómo almacena y recupera la arquitectura hechos específicos? Todo el mecanismo detrás de la memorización en los LLM sigue siendo sorprendentemente confuso, incluso a medida que dependemos de estos sistemas cada vez más.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 4
  • Republicar
  • Compartir
Comentar
0/400
GateUser-c799715cvip
· hace8h
¿Alguna vez has sentido que los grandes modelos de lenguaje son demasiado misteriosos?
Ver originalesResponder0
ContractFreelancervip
· hace8h
Que los grandes modelos tengan buena memoria está bien, pero no sabemos dónde la almacenan.
Ver originalesResponder0
FloorPriceNightmarevip
· hace8h
¡El agujero negro detrás es realmente aterrador!
Ver originalesResponder0
BearHuggervip
· hace9h
Me muero de risa, entrenar el modelo es como quemar incienso y rezar.
Ver originalesResponder0
  • Anclado
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)