Cơ quan quản lý của Úc đưa ra cảnh báo, số lượng khiếu nại về lạm dụng hình ảnh trí tuệ nhân tạo Grok tăng đột biến dẫn đến việc nâng cấp quy định

Cơ quan quản lý an ninh mạng của Úc gần đây công khai cảnh báo rằng các khiếu nại về lạm dụng hình ảnh nhắm vào chatbot trí tuệ nhân tạo Grok đang tăng nhanh chóng, đặc biệt là vấn đề tạo hình ảnh tình dục mà không có sự đồng ý, đã trở thành điểm rủi ro chính trong quản lý trí tuệ nhân tạo sinh tạo hiện tại. Cơ quan mạng độc lập eSafety của Úc chỉ ra rằng số lượng khiếu nại liên quan đến Grok trong vài tháng gần đây đã tăng gấp đôi, liên quan đến các hành vi xâm phạm hình ảnh đa dạng liên quan đến người chưa thành niên và người trưởng thành.

Chuyên uyên an ninh mạng Úc Julie Inman Grant cho biết, một số khiếu nại có thể liên quan đến tài liệu khai thác tình dục trẻ em, trong khi những khiếu nại khác liên quan đến lạm dụng dựa trên hình ảnh mà những người trưởng thành phải chịu. Cô nhấn mạnh trên LinkedIn rằng trí tuệ nhân tạo sinh tạo đang được sử dụng ngày càng nhiều để tình dục hóa và khai thác người khác, đặc biệt khi liên quan đến trẻ em, tạo ra thách thức nghiêm trọng đối với xã hội và hệ thống quản lý. Khi độ chân thực của nội dung do AI tạo ra liên tục tăng cao, độ khó trong việc xác định và điều tra pháp y cũng tăng theo.

Grok được phát triển bởi xAI, công ty trí tuệ nhân tạo thuộc quyền kiểm soát của Elon Musk, và được tích hợp trực tiếp vào nền tảng X, cho phép người dùng sửa đổi và tạo hình ảnh. So với các mô hình trí tuệ nhân tạo chính khác, Grok được định vị là sản phẩm “tiên phong” hơn, có khả năng tạo ra nội dung mà các mô hình thông thường thường sẽ từ chối. Trước đó, xAI còn ra mắt chế độ có thể tạo nội dung tường minh, đây cũng là một trong những tiêu điểm được các cơ quan quản lý quan tâm sâu sắc.

Julie Inman Grant chỉ ra rằng, theo các quy định hiện hành của Úc, tất cả các dịch vụ trực tuyến phải có biện pháp hiệu quả để ngăn chặn phổ biến tài liệu khai thác tình dục trẻ em, bất kể nội dung này có được tạo ra bởi trí tuệ nhân tạo hay không. Cô nhấn mạnh rằng các doanh nghiệp phải tích hợp cơ chế bảo vệ an toàn trong toàn bộ vòng đời thiết kế, triển khai và vận hành của sản phẩm AI sinh tạo, nếu không sẽ phải đối mặt với rủi ro điều tra và thực thi pháp luật.

Về vấn đề deepfake, Úc đã áp dụng立场 cứng rắn hơn. Các cơ quan quản lý gần đây đẩy mạnh nhiều bản cập nhật pháp luật, cố gắng lấp những khoảng trống trong luật hiện hành về chống lại nội dung AI tổng hợp mà không có sự đồng ý. Dự luật liên quan do thượng nghị sĩ độc lập David Pocock đề xuất rõ ràng quy định mức phạt cao cho các cá nhân và doanh nghiệp trong việc phổ biến nội dung deepfake, nhằm tăng cường hiệu ứng răn đe.

Nhìn chung, sự kiện lạm dụng hình ảnh AI Grok phản ánh vấn đề quản lý chậm trễ dưới sự mở rộng nhanh chóng của công nghệ AI sinh tạo. Khi deepfake, lạm dụng hình ảnh AI và bảo vệ người chưa thành niên trở thành tiêu điểm toàn cầu, hướng đi quản lý của Úc có thể cung cấp tham khảo quan trọng cho các quốc gia khác, đồng thời báo hiệu rằng thời đại tuân thủ trí tuệ nhân tạo sinh tạo đang tăng tốc độ.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim