Hệ thống tự trị luôn sợ không phải là sai sót, mà là xảy ra chuyện rồi nhưng không ai có thể giải thích rõ tại sao nó lại làm như vậy.



Thực ra con người có thể chấp nhận những sai lầm trong phán đoán, nhưng rất khó chấp nhận một trạng thái:
Kết quả đã xảy ra, còn quá trình ra quyết định lại trở thành một hộp đen.

Nhiều AI gặp khó khăn trong các tình huống rủi ro cao, không phải vì năng lực không đủ, mà vì logic quyết định của nó không thể được xác thực từ bên ngoài.

Lựa chọn của @inference_labs rất rõ ràng:
Không tốn công giải thích mô hình 「trong đầu」 đang nghĩ gì, mà trực tiếp chứng minh hành vi của nó có vượt quá giới hạn hay không.

Hành vi có hợp quy tắc không, quy tắc có được tuân thủ nghiêm ngặt không, quyết định có thể truy xuất nguồn gốc không.
Trong thế giới của hệ thống tự trị, điều này thường quan trọng hơn 「giải thích hợp lý một cách trôi chảy」.
Xem bản gốc
post-image
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Gate Fun hot

    Xem thêm
  • Vốn hóa:$3.6KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$3.62KNgười nắm giữ:2
    0.00%
  • Vốn hóa:$3.74KNgười nắm giữ:2
    0.48%
  • Vốn hóa:$3.61KNgười nắm giữ:2
    0.00%
  • Vốn hóa:$3.64KNgười nắm giữ:1
    0.00%
  • Ghim