
สามหญิงเยาวชนจากรัฐเทนเนสซี ยื่นฟ้องกลุ่มคดีรวมต่อบริษัท xAI ของ Elon Musk เมื่อวันจันทร์ที่ศาลรัฐบาลกลางเขตภาคเหนือของแคลิฟอร์เนีย โดยกล่าวหาว่า Grok AI chatbot ของบริษัทใช้ภาพถ่ายจริงของพวกเธอในการสร้างเนื้อหาลามกอนาจารเด็ก (CSAM) และแพร่กระจายอย่างกว้างขวางในชุมชนต่าง ๆ เช่น Discord, Telegram และแพลตฟอร์มแชร์ไฟล์ ซึ่งส่งผลให้พวกเธอได้รับบาดเจ็บทางจิตใจและเสียชื่อเสียงในระยะยาว
ตามคำฟ้อง คำกล่าวอ้างหลักของโจทก์ครอบคลุมหลายมิติ:
การละเลยรู้เห็นและสนับสนุน: คำฟ้องระบุว่า xAI ทราบดีว่าฟังก์ชันสร้างภาพของ Grok อาจถูกใช้ในการผลิตเนื้อหาที่ผิดกฎหมายเกี่ยวกับเด็ก แต่กลับไม่ดำเนินมาตรการความปลอดภัยตามมาตรฐานอุตสาหกรรม ซึ่งเป็นการตัดสินใจโดยเจตนา ไม่ใช่ความประมาท
กลไกหลีกเลี่ยงความรับผิดชอบของบุคคลที่สาม: อาชญากรเข้าถึง Grok ผ่านแอปพลิเคชันของบุคคลที่สามที่ได้รับอนุญาตจาก xAI คำฟ้องกล่าวหาว่า xAI ตั้งใจใช้โครงสร้างนี้ เพื่อทำกำไรจากโมเดลพื้นฐานในขณะเดียวกันก็สร้างชั้นป้องกันความรับผิดชอบทางกฎหมายของตนเอง
คำแถลงสาธารณะของ Musk: เมื่อเดือนมกราคมที่ผ่านมา Musk โพสต์บน X ว่าเขา “ไม่รู้จักภาพเปลือยของเยาวชนใด ๆ” และอ้างว่า “เมื่อมีการร้องขอให้สร้างภาพ มันจะปฏิเสธไม่สร้างเนื้อหาที่ผิดกฎหมาย” ข้อมูลในคดีขัดแย้งโดยตรงกับคำกล่าวนี้
ขอบเขตการเรียกร้องค่าเสียหาย: เหยื่ออ้างว่าตามกฎหมาย Martha’s Act พวกเธอเรียกร้องค่าเสียหายขั้นต่ำ 150,000 ดอลลาร์ต่อแต่ละการละเมิด รวมถึงการเรียกคืนรายได้ผิดกฎหมาย ค่าปรับทางลงโทษ ค่าทนายความ และคำสั่งห้ามถาวร พร้อมทั้งเรียกร้องให้คืนกำไรตามกฎหมายการแข่งขันที่ไม่เป็นธรรมของแคลิฟอร์เนีย
คำฟ้องอ้างอิงข้อมูลจากศูนย์ฯ ซึ่งให้ข้อมูลเชิงปริมาณสนับสนุนข้อกล่าวหา:
ช่วงเวลา: ตั้งแต่ 29 ธันวาคม 2025 ถึง 9 มกราคม 2026 (ประมาณ 11 วัน)
จำนวนภาพ: Grok สร้างภาพเปลือยเด็กประมาณ 23,338 ภาพในช่วงเวลาดังกล่าว
อัตราการสร้าง: เฉลี่ยทุก 41 วินาทีสร้างภาพหนึ่งภาพ
การแพร่กระจาย: เนื้อหาดังกล่าวถูกเผยแพร่ในหลายแพลตฟอร์ม โดยกลุ่มผู้ใช้ที่ไม่เปิดเผยตัวตนสร้างชุมชนแลกเปลี่ยนเนื้อหา โดยมีเหยื่ออย่างน้อยหนึ่งรายถูกแจ้งเตือนโดยผู้แจ้งเบาะแสว่า ภาพของเธอกำลังถูกซื้อขาย
คดีนี้ไม่ใช่เหตุการณ์เดียว แต่เป็นส่วนหนึ่งของการตรวจสอบเชิงระบบเกี่ยวกับความปลอดภัยของภาพใน Grok AI ทั่วโลก:
ออสเตรเลีย: คณะกรรมการความปลอดภัยทางอิเล็กทรอนิกส์อิสระ Julie Inman Grant เตือนว่า ปัญหาการสร้างภาพเปลือยของเด็กโดยไม่สมัครใจของ Grok รุนแรงขึ้นในไม่กี่เดือนที่ผ่านมา โดยมีคำร้องเรียนเพิ่มขึ้นเป็นเท่าตัว บางรายเกี่ยวข้องกับเนื้อหาการล่วงละเมิดทางเพศเด็ก
ไอร์แลนด์: คณะกรรมการคุ้มครองข้อมูล (DPC) เริ่มการสอบสวนอย่างเป็นทางการต่อ X Internet Unlimited Company (XIUC) ซึ่งรับผิดชอบธุรกิจในสหภาพยุโรป ภายใต้กฎหมายคุ้มครองข้อมูลของไอร์แลนด์
สหรัฐอเมริกา สหภาพยุโรป สหราชอาณาจักร ฝรั่งเศส: ดำเนินการสอบสวนพร้อมกัน เป็นความร่วมมือด้านกฎหมายหลายเขตอำนาจศาลในระดับไม่เคยมีมาก่อน
Alex Chandra หุ้นส่วนของสมาคมกฎหมาย IGNOS กล่าวว่า ศาลอาจไม่รับการอ้างสิทธิ์แบบง่าย ๆ เกี่ยวกับความรับผิดชอบของแพลตฟอร์ม เขาชี้ว่า ระบบ AI สร้างสรรค์ในระดับการโต้ตอบของผู้ใช้ “อาจถูกมองว่าเป็นแพลตฟอร์ม” แต่ในด้านการออกแบบความปลอดภัย “ควรถือเป็นผลิตภัณฑ์” และในคดีเกี่ยวกับ CSAM เนื่องจากหน้าที่ปกป้องเด็ก ๆ ที่เข้มงวดยิ่งขึ้น จึงต้องใช้ “มาตรฐานการตรวจสอบที่เข้มงวดเป็นพิเศษ” บริษัทอาจต้องแสดงเอกสารประเมินความเสี่ยงและมาตรการความปลอดภัยก่อนการปล่อยใช้งาน เพื่อพิสูจน์ว่าบริษัทได้ปฏิบัติหน้าที่ป้องกันอย่างเต็มที่
พระราชบัญญามาร์ธา (Martha’s Act) เป็นกฎหมายของสหรัฐอเมริกาที่กำหนดความรับผิดชอบทางแพ่งและอาญาอย่างเข้มงวดต่อการสร้างและแพร่กระจาย CSAM คำผิดแต่ละครั้งมีค่าชดเชยขั้นต่ำ 150,000 ดอลลาร์ ประเด็นสำคัญคือ xAI จะถูกพิจารณาว่าเป็น “ผู้สร้าง” CSAM หรือไม่ และโครงสร้างการอนุญาตของบุคคลที่สามสามารถยกเว้นความรับผิดชอบโดยตรงได้หรือไม่ — การชี้ชัดขอบเขตทางกฎหมายนี้อาจส่งผลต่อกรอบความรับผิดชอบของอุตสาหกรรม AI ในการสร้างเนื้อหา
เป็นหนึ่งในคดีแรก ๆ ที่ฟ้องบริษัท AI โดยตรงในเรื่องการสร้างเนื้อหา CSAM ที่ระบุได้ว่าเป็นเยาวชน หากศาลตัดสินว่า บริษัท AI ต้องรับผิดชอบโดยตรงต่อการใช้งานโมเดลในทางผิด คาดว่าจะมีการปรับปรุงมาตรฐานความปลอดภัยก่อนปล่อยใช้งานอย่างเข้มงวดยิ่งขึ้น รวมถึงการทดสอบ Red Team การกรองเนื้อหา และการจำกัดความสามารถในการสร้างเนื้อหาที่เสี่ยงสูง ซึ่งอาจเปลี่ยนแปลงกระบวนการตรวจสอบและอนุญาตให้ใช้โมเดล AI ในเชิงพาณิชย์อย่างรุนแรง