مساعد X الذكي Grok يخضع الآن لرقابة رسمية من السلطات البريطانية. أطلقت هيئة تنظيم السلامة على الإنترنت المستقلة في البلاد، أوفكوم، تحقيقًا رسميًا يوم الاثنين حول ما إذا كان الدردشة الآلي يُستخدم كسلاح لتوليد محتوى جنسي صريح يصور النساء والأحداث. يثير التحقيق أسئلة حاسمة حول تدابير حماية الذكاء الاصطناعي التوليدي على المنصات الكبرى—وبشكل خاص، مدى قدرة أنظمة مراقبة المحتوى على مواكبة قدرات الذكاء الاصطناعي التي تتطور بسرعة. بالنسبة لمجتمع العملات المشفرة وWeb3، تؤكد هذه التطورات على اتجاه أوسع: حيث يقوم المنظمون في جميع أنحاء العالم بتكثيف الرقابة على التطبيقات المدفوعة بالذكاء الاصطناعي، خاصة فيما يتعلق بنزاهة المحتوى وحماية المستخدمين. سواء كانت منصات تقليدية أو أنظمة لامركزية، فإن أطر الحوكمة تتشدد. وتشير الحالة إلى أن مشغلي أدوات الذكاء الاصطناعي يواجهون ضغطًا متزايدًا لدمج آليات أمان قوية من اليوم الأول، وليس كتصحيحات لاحقة.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
ثبت أن hurdle مراجعة المحتوى لا يمكن تجاوزه حقًا. مسألة توليد Grok للمحتوى غير اللائق، بصراحة، هي مشكلة أمنية لم تُحل على مستوى البروتوكول، والآن أصبح الوقت متأخرًا للتصحيح.
شاهد النسخة الأصليةرد0
consensus_failure
· 01-12 20:39
grok又翻车了,这次直接被英国官方盯上...说实话AI安全这块儿一直是短板,从来都是事后补救
رد0
wrekt_but_learning
· 01-12 20:33
grok又翻车了,这次直接被ofcom盯上...说实话ai审核这块确实是老大难,追不上迭代速度呗
رد0
LiquidityWhisperer
· 01-12 20:26
Grok مرة أخرى تعرض للفشل، وهذه المرة تم مراقبته مباشرة من قبل الجهات الرسمية... على قول، كان ينبغي أن تكون عملية مراجعة المحتوى بواسطة الذكاء الاصطناعي أكثر صرامة منذ البداية، الآن قد تأخر الوقت في التحقيق.
شاهد النسخة الأصليةرد0
faded_wojak.eth
· 01-12 20:24
قضية ... كان من المفترض أن يتم التحقيق فيها منذ وقت طويل، منذ أن ظهرت هذه الأداة وهي فوضوية، وهل لا تزال تولد تلك الأشياء؟ التأخير في التنظيم أفضل من عدمه بالتأكيد
مساعد X الذكي Grok يخضع الآن لرقابة رسمية من السلطات البريطانية. أطلقت هيئة تنظيم السلامة على الإنترنت المستقلة في البلاد، أوفكوم، تحقيقًا رسميًا يوم الاثنين حول ما إذا كان الدردشة الآلي يُستخدم كسلاح لتوليد محتوى جنسي صريح يصور النساء والأحداث. يثير التحقيق أسئلة حاسمة حول تدابير حماية الذكاء الاصطناعي التوليدي على المنصات الكبرى—وبشكل خاص، مدى قدرة أنظمة مراقبة المحتوى على مواكبة قدرات الذكاء الاصطناعي التي تتطور بسرعة. بالنسبة لمجتمع العملات المشفرة وWeb3، تؤكد هذه التطورات على اتجاه أوسع: حيث يقوم المنظمون في جميع أنحاء العالم بتكثيف الرقابة على التطبيقات المدفوعة بالذكاء الاصطناعي، خاصة فيما يتعلق بنزاهة المحتوى وحماية المستخدمين. سواء كانت منصات تقليدية أو أنظمة لامركزية، فإن أطر الحوكمة تتشدد. وتشير الحالة إلى أن مشغلي أدوات الذكاء الاصطناعي يواجهون ضغطًا متزايدًا لدمج آليات أمان قوية من اليوم الأول، وليس كتصحيحات لاحقة.