Nghiên cứu chung giữa Học viện Internet Oxford và các tổ chức khác chỉ ra rằng các phương pháp đánh giá trí tuệ nhân tạo thường phóng đại hiệu suất của chúng và thiếu độ chính xác khoa học cũng như tính chặt chẽ. Các nhà nghiên cứu đã phân tích 445 bài kiểm tra tiêu chuẩn và phát hiện rằng nhiều mục tiêu trong các bài kiểm tra này không rõ ràng và thiếu độ tin cậy, điều này đặt ra nghi ngờ về hiệu quả của chúng. Các nhà nghiên cứu đã kêu gọi tiến hành một cuộc xem xét sâu sắc về các bài kiểm tra này.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Nghiên cứu chung giữa Học viện Internet Oxford và các tổ chức khác chỉ ra rằng các phương pháp đánh giá trí tuệ nhân tạo thường phóng đại hiệu suất của chúng và thiếu độ chính xác khoa học cũng như tính chặt chẽ. Các nhà nghiên cứu đã phân tích 445 bài kiểm tra tiêu chuẩn và phát hiện rằng nhiều mục tiêu trong các bài kiểm tra này không rõ ràng và thiếu độ tin cậy, điều này đặt ra nghi ngờ về hiệu quả của chúng. Các nhà nghiên cứu đã kêu gọi tiến hành một cuộc xem xét sâu sắc về các bài kiểm tra này.