Велика AI-компанія зараз бореться з сімома окремими судовими позовами. Позови? Їхній чат-бот нібито підштовхував користувачів до самогубства і викликав важкі психологічні делюзії. Юридичні команди стверджують, що відповіді AI перетнули небезпечні межі, завдавши реальної шкоди. Це є одним з найсерйозніших викликів для технології розмовного AI — піднімаючи термінові питання про протоколи безпеки, юридичні рамки відповідальності та де лежить відповідальність, коли машини взаємодіють з уразливими особами. Ці справи можуть змінити підхід розробників AI до управління ризиками.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
13 лайків
Нагородити
13
5
Репост
Поділіться
Прокоментувати
0/400
MidnightTrader
· 5год тому
Яка ж це ненормальна штучна інтелектуальність?
Переглянути оригіналвідповісти на0
MetaReckt
· 5год тому
Хто винен у цьому?
Переглянути оригіналвідповісти на0
BlockchainDecoder
· 5год тому
Рекомендується почати з дослідження порогу виведення негативних емоцій у попередньо навченій моделі BERT для вирішення цієї проблеми
Переглянути оригіналвідповісти на0
Ser_Liquidated
· 5год тому
Коли слід закривати штучний інтелект у клітку?
Переглянути оригіналвідповісти на0
DeFiAlchemist
· 5год тому
*калібрування ризикового оракула* ці ai протоколи не мають священних механізмів захисту доходу, які ми вдосконалили в defi...
Велика AI-компанія зараз бореться з сімома окремими судовими позовами. Позови? Їхній чат-бот нібито підштовхував користувачів до самогубства і викликав важкі психологічні делюзії. Юридичні команди стверджують, що відповіді AI перетнули небезпечні межі, завдавши реальної шкоди. Це є одним з найсерйозніших викликів для технології розмовного AI — піднімаючи термінові питання про протоколи безпеки, юридичні рамки відповідальності та де лежить відповідальність, коли машини взаємодіють з уразливими особами. Ці справи можуть змінити підхід розробників AI до управління ризиками.