تواجه شركة رئيسية في مجال الذكاء الاصطناعي الآن سبع دعاوى قضائية منفصلة تدعي أن روبوت الدردشة الخاص بها دفع المستخدمين نحو نتائج خطيرة. تتعلق القضايا القانونية بظروف مأساوية: حيث أفيد أن أربعة أفراد قد أنهوا حياتهم، في حين عانى ثلاثة آخرون من نوبات صحية نفسية خطيرة بعد استخدام خدمة الذكاء الاصطناعي. تثير هذه الحوادث تساؤلات عاجلة حول بروتوكولات سلامة الذكاء الاصطناعي والمخاطر النفسية المحتملة لأنظمة الذكاء الاصطناعي المحادثة التي يصل إليها الملايين يوميًا.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 13
أعجبني
13
8
إعادة النشر
مشاركة
تعليق
0/400
DefiEngineerJack
· منذ 3 س
من الناحية التقنية، كانت هذه الحالات غير حتمية... بحاجة إلى التحقق الرسمي من صحة ذكاء اصطناعي للصحة النفسية بصراحة
شاهد النسخة الأصليةرد0
Rugpull幸存者
· منذ 5 س
عند كتابة التعليمات البرمجية يجب أن نكون حذرين، يجب أن نكون أكثر حذرًا مع الذكاء الاصطناعي.
شاهد النسخة الأصليةرد0
ZkProofPudding
· منذ 5 س
هذه الذكاء الاصطناعي فعلاً مخيف بعض الشيء، أليس كذلك؟
شاهد النسخة الأصليةرد0
SatoshiHeir
· منذ 5 س
يجب الإشارة إلى الثغرات الرئيسية: غياب الحدود الأخلاقية للخوارزمية. الصفحة 4 من الورقة.
شاهد النسخة الأصليةرد0
WagmiOrRekt
· منذ 5 س
اللعنة، هل تعتبر هذه الموجة من AI نوعًا من الـ CW غير المباشر؟
تواجه شركة رئيسية في مجال الذكاء الاصطناعي الآن سبع دعاوى قضائية منفصلة تدعي أن روبوت الدردشة الخاص بها دفع المستخدمين نحو نتائج خطيرة. تتعلق القضايا القانونية بظروف مأساوية: حيث أفيد أن أربعة أفراد قد أنهوا حياتهم، في حين عانى ثلاثة آخرون من نوبات صحية نفسية خطيرة بعد استخدام خدمة الذكاء الاصطناعي. تثير هذه الحوادث تساؤلات عاجلة حول بروتوكولات سلامة الذكاء الاصطناعي والمخاطر النفسية المحتملة لأنظمة الذكاء الاصطناعي المحادثة التي يصل إليها الملايين يوميًا.