Các mô hình ngôn ngữ lớn rõ ràng giữ lại rất nhiều dữ liệu huấn luyện trong các mạng nơ-ron của chúng, nhưng điều làm tôi bực mình là: không ai thực sự hiểu nơi thông tin đã được ghi nhớ này sống ở đâu bên trong các mô hình này. Như, lớp nào giữ nó? Kiến trúc đó lưu trữ và truy xuất các sự thật cụ thể như thế nào? Toàn bộ cơ chế đằng sau việc ghi nhớ trong các LLM vẫn còn khá mơ hồ, ngay cả khi chúng ta ngày càng phụ thuộc vào những hệ thống này.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
9 thích
Phần thưởng
9
4
Đăng lại
Retweed
Bình luận
0/400
GateUser-c799715c
· 8giờ trước
Cảm giác như mô hình ngôn ngữ lớn quá thần bí vậy nhỉ
Xem bản gốcTrả lời0
ContractFreelancer
· 8giờ trước
Khả năng ghi nhớ của mô hình lớn thì tốt, nhưng chúng ta cũng chẳng biết nó lưu trữ ở đâu nữa.
Xem bản gốcTrả lời0
FloorPriceNightmare
· 8giờ trước
Hộp đen phía sau thật đáng sợ!
Xem bản gốcTrả lời0
BearHugger
· 9giờ trước
Cười chết! Huấn luyện mô hình giống như thắp hương cầu nguyện.
Các mô hình ngôn ngữ lớn rõ ràng giữ lại rất nhiều dữ liệu huấn luyện trong các mạng nơ-ron của chúng, nhưng điều làm tôi bực mình là: không ai thực sự hiểu nơi thông tin đã được ghi nhớ này sống ở đâu bên trong các mô hình này. Như, lớp nào giữ nó? Kiến trúc đó lưu trữ và truy xuất các sự thật cụ thể như thế nào? Toàn bộ cơ chế đằng sau việc ghi nhớ trong các LLM vẫn còn khá mơ hồ, ngay cả khi chúng ta ngày càng phụ thuộc vào những hệ thống này.