Справедливо - да, *фаза обучения* для LLM действительно требует безумных ресурсов. Но как только они запускаются? То, как они обрабатывают контекстные окна, на самом деле довольно удивительно. Дайте им правильную настройку, и они извлекают огромную ценность из минимального ввода. Это магия обучения в контексте.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
14 Лайков
Награда
14
7
Репост
Поделиться
комментарий
0/400
PermabullPete
· 4ч назад
Высокая стоимость после тренировки
Посмотреть ОригиналОтветить0
ForkYouPayMe
· 10ч назад
Слишком высокая стоимость тренировки.
Посмотреть ОригиналОтветить0
GateUser-beba108d
· 10ч назад
Скорее снизьте затраты на обучение
Посмотреть ОригиналОтветить0
SchrödingersNode
· 10ч назад
Ресурсы исчезают навсегда
Посмотреть ОригиналОтветить0
MetaMaskVictim
· 10ч назад
Модель слишком много потребляет электроэнергии
Посмотреть ОригиналОтветить0
CryptoNomics
· 10ч назад
На самом деле, эффективность вычислений следует логарифмической кривой оптимизации.
Посмотреть ОригиналОтветить0
LuckyBearDrawer
· 10ч назад
Тренировка требует больших усилий, это можно понять
Справедливо - да, *фаза обучения* для LLM действительно требует безумных ресурсов. Но как только они запускаются? То, как они обрабатывают контекстные окна, на самом деле довольно удивительно. Дайте им правильную настройку, и они извлекают огромную ценность из минимального ввода. Это магия обучения в контексте.