من الواضح أن النماذج اللغوية الكبيرة تحتفظ بالكثير من بيانات التدريب في شبكاتها العصبية، لكن ما يزعجني هو: لا أحد يفهم حقًا أين تعيش هذه المعلومات الم memorized داخل هذه النماذج. مثل، أي الطبقات تحتفظ بها؟ كيف تخزن البنية المعمارية وتسترجع الحقائق المحددة؟ لا يزال الآلية الكاملة وراء التذكر في LLMs غامضة بشكل مدهش، حتى ونحن نعتمد على هذه الأنظمة أكثر فأكثر.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 9
أعجبني
9
4
إعادة النشر
مشاركة
تعليق
0/400
GateUser-c799715c
· منذ 8 س
كيف أشعر أن النماذج اللغوية الكبيرة غامضة جدًا؟
شاهد النسخة الأصليةرد0
ContractFreelancer
· منذ 8 س
الذاكرة الجيدة للنموذج الكبير جيدة، لكن لا نعرف أين يخزنها بالضبط.
شاهد النسخة الأصليةرد0
FloorPriceNightmare
· منذ 8 س
الخلفية الصندوق الأسود مخيف حقًا!
شاهد النسخة الأصليةرد0
BearHugger
· منذ 9 س
أضحكني، يبدو أن تدريب النموذج يشبه حرق البخور والدعاء.
من الواضح أن النماذج اللغوية الكبيرة تحتفظ بالكثير من بيانات التدريب في شبكاتها العصبية، لكن ما يزعجني هو: لا أحد يفهم حقًا أين تعيش هذه المعلومات الم memorized داخل هذه النماذج. مثل، أي الطبقات تحتفظ بها؟ كيف تخزن البنية المعمارية وتسترجع الحقائق المحددة؟ لا يزال الآلية الكاملة وراء التذكر في LLMs غامضة بشكل مدهش، حتى ونحن نعتمد على هذه الأنظمة أكثر فأكثر.