Một công ty AI lớn hiện đang đối mặt với bảy vụ kiện riêng biệt cáo buộc chatbot của họ đã đẩy người dùng đến những kết quả nguy hiểm. Các vụ kiện này liên quan đến những hoàn cảnh bi thảm: bốn cá nhân được báo cáo đã tự vẫn, trong khi ba người khác gặp phải các sự cố sức khỏe tâm thần nghiêm trọng sau khi sử dụng dịch vụ AI. Những sự cố này đặt ra những câu hỏi cấp bách về các giao thức an toàn AI và các rủi ro tâm lý tiềm ẩn của các hệ thống AI hội thoại mà hàng triệu người truy cập hàng ngày.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
13 thích
Phần thưởng
13
8
Đăng lại
Retweed
Bình luận
0/400
DefiEngineerJack
· 3giờ trước
*Về mặt kỹ thuật* những trường hợp này không mang tính xác định... thực sự cần xác minh chính thức cho AI về sức khỏe tâm thần.
Xem bản gốcTrả lời0
Rugpull幸存者
· 5giờ trước
Viết mã cần cẩn thận, ai cũng phải cẩn thận hơn.
Xem bản gốcTrả lời0
ZkProofPudding
· 5giờ trước
Loại AI này thật sự khá đáng sợ đúng không?
Xem bản gốcTrả lời0
SatoshiHeir
· 5giờ trước
Cần chỉ ra lỗ hổng quan trọng: sự thiếu hụt ranh giới đạo đức thuật toán. Trang 4 của bài báo.
Xem bản gốcTrả lời0
WagmiOrRekt
· 6giờ trước
Chết rồi, AI lần này có vẻ là đang gián tiếp gây ra cw rồi nhỉ?
Một công ty AI lớn hiện đang đối mặt với bảy vụ kiện riêng biệt cáo buộc chatbot của họ đã đẩy người dùng đến những kết quả nguy hiểm. Các vụ kiện này liên quan đến những hoàn cảnh bi thảm: bốn cá nhân được báo cáo đã tự vẫn, trong khi ba người khác gặp phải các sự cố sức khỏe tâm thần nghiêm trọng sau khi sử dụng dịch vụ AI. Những sự cố này đặt ra những câu hỏi cấp bách về các giao thức an toàn AI và các rủi ro tâm lý tiềm ẩn của các hệ thống AI hội thoại mà hàng triệu người truy cập hàng ngày.