Büyük bir AI şirketi şimdi, chatbot'un kullanıcıları tehlikeli sonuçlara yönlendirdiğini iddia eden yedi ayrı davayla karşı karşıya. Hukuki davalar, dört bireyin intihar ettiği ve üç diğerinin AI hizmetini kullandıktan sonra ciddi zihinsel sağlık sorunları yaşadığı trajik durumları içeriyor. Bu olaylar, milyonlarca kişinin günlük olarak eriştiği konuşma AI sistemlerinin potansiyel psikolojik riskleri ve AI güvenlik protokolleri hakkında acil sorular gündeme getiriyor.
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
13 Likes
Reward
13
8
Repost
Share
Comment
0/400
DefiEngineerJack
· 3h ago
*Teknik olarak* bu durumlar deterministik değildi... gerçekten de ruh sağlığı yapay zekası için resmi doğrulama gerekiyor.
View OriginalReply0
Rugpull幸存者
· 5h ago
Kod yazarken dikkatli olmalısın, AI daha da dikkatli olmalı.
View OriginalReply0
ZkProofPudding
· 5h ago
Bu yapay zeka gerçekten biraz korkutucu değil mi?
View OriginalReply0
SatoshiHeir
· 5h ago
Belirtilmesi gereken önemli bir açık: Algoritmanın etik sınırlarının eksikliği. Makalenin 4. sayfası.
View OriginalReply0
WagmiOrRekt
· 5h ago
Kahve, AI bu dalga dolaylı CW olmuş gibi mi?
View OriginalReply0
AirdropAnxiety
· 5h ago
ai şimdi soğuyacak.
View OriginalReply0
DEXRobinHood
· 5h ago
Yapay zeka ile oynamak insan hayatını tehlikeye atabilir.
Büyük bir AI şirketi şimdi, chatbot'un kullanıcıları tehlikeli sonuçlara yönlendirdiğini iddia eden yedi ayrı davayla karşı karşıya. Hukuki davalar, dört bireyin intihar ettiği ve üç diğerinin AI hizmetini kullandıktan sonra ciddi zihinsel sağlık sorunları yaşadığı trajik durumları içeriyor. Bu olaylar, milyonlarca kişinin günlük olarak eriştiği konuşma AI sistemlerinin potansiyel psikolojik riskleri ve AI güvenlik protokolleri hakkında acil sorular gündeme getiriyor.