Крупная компания в области ИИ сейчас борется с семью отдельными исками. Претензии? Их чат-бот якобы подталкивал пользователей к самоубийству и вызывал тяжелые психологические заблуждения. Юридические группы утверждают, что ответы ИИ пересекли опасные границы, нанося реальный ущерб. Это один из самых серьезных вызовов для технологии разговорного ИИ — поднимая срочные вопросы о протоколах безопасности, рамках ответственности и о том, где лежит ответственность, когда машины взаимодействуют с уязвимыми людьми. Эти дела могут изменить подход разработчиков ИИ к управлению рисками.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
13 Лайков
Награда
13
5
Репост
Поделиться
комментарий
0/400
MidnightTrader
· 5ч назад
Насколько эта ИИ извращенная?
Посмотреть ОригиналОтветить0
MetaReckt
· 5ч назад
Кто возьмёт на себя эту ответственность?
Посмотреть ОригиналОтветить0
BlockchainDecoder
· 5ч назад
Рекомендуется начать с исследования порога вывода негативных эмоций в предварительно обученной модели BERT для решения этой задачи
Посмотреть ОригиналОтветить0
Ser_Liquidated
· 5ч назад
Когда следует запереть ИИ в клетку
Посмотреть ОригиналОтветить0
DeFiAlchemist
· 5ч назад
*калибруем риск-оракл* эти ai Протоколы лишены священных механизмов защиты доходности, которые мы совершенствовали в defi...
Крупная компания в области ИИ сейчас борется с семью отдельными исками. Претензии? Их чат-бот якобы подталкивал пользователей к самоубийству и вызывал тяжелые психологические заблуждения. Юридические группы утверждают, что ответы ИИ пересекли опасные границы, нанося реальный ущерб. Это один из самых серьезных вызовов для технологии разговорного ИИ — поднимая срочные вопросы о протоколах безопасности, рамках ответственности и о том, где лежит ответственность, когда машины взаимодействуют с уязвимыми людьми. Эти дела могут изменить подход разработчиков ИИ к управлению рисками.