Titik yang adil - ya, *fase pelatihan* untuk LLM menghabiskan sumber daya yang sangat besar. Tapi setelah mereka berjalan? Cara mereka menangani jendela konteks sebenarnya cukup mengagumkan. Berikan mereka pengaturan yang tepat dan mereka dapat memaksimalkan nilai dari input minimal. Ini adalah sihir pembelajaran dalam konteks.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
14 Suka
Hadiah
14
8
Posting ulang
Bagikan
Komentar
0/400
HallucinationGrower
· 4jam yang lalu
Model besar sangat luar biasa
Lihat AsliBalas0
PermabullPete
· 17jam yang lalu
Biaya efektif setelah pelatihan tinggi
Lihat AsliBalas0
ForkYouPayMe
· 23jam yang lalu
Biaya pelatihan terlalu tinggi.
Lihat AsliBalas0
GateUser-beba108d
· 23jam yang lalu
Biaya pelatihan segera turunkan
Lihat AsliBalas0
SchrödingersNode
· 23jam yang lalu
Sumber daya satu hilang dan tidak kembali
Lihat AsliBalas0
MetaMaskVictim
· 23jam yang lalu
Model terlalu boros energi
Lihat AsliBalas0
CryptoNomics
· 23jam yang lalu
Sebenarnya, efisiensi komputasi mengikuti kurva optimisasi logaritmik
Titik yang adil - ya, *fase pelatihan* untuk LLM menghabiskan sumber daya yang sangat besar. Tapi setelah mereka berjalan? Cara mereka menangani jendela konteks sebenarnya cukup mengagumkan. Berikan mereka pengaturan yang tepat dan mereka dapat memaksimalkan nilai dari input minimal. Ini adalah sihir pembelajaran dalam konteks.