Крупная компания в области искусственного интеллекта сейчас сталкивается с семью отдельными исками, в которых утверждается, что ее чат-бот толкал пользователей к опасным последствиям. Юридические дела касаются трагических обстоятельств: четыре человека, как сообщается, покончили с собой, в то время как трое других испытали серьезные проблемы с психическим здоровьем после использования AI-сервиса. Эти инциденты поднимают насущные вопросы о протоколах безопасности ИИ и потенциальных психологических рисках систем разговорного ИИ, к которым ежедневно обращаются миллионы.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
13 Лайков
Награда
13
8
Репост
Поделиться
комментарий
0/400
DefiEngineerJack
· 3ч назад
*Технически* эти случаи были недетерминированными... действительно, нужна формальная проверка для ИИ в области психического здоровья.
Посмотреть ОригиналОтветить0
Rugpull幸存者
· 5ч назад
При написании кода нужно быть осторожным, а с ИИ стоит быть еще более осторожным.
Посмотреть ОригиналОтветить0
ZkProofPudding
· 5ч назад
Этот ИИ действительно немного пугает, не так ли?
Посмотреть ОригиналОтветить0
SatoshiHeir
· 5ч назад
Необходимо указать на ключевую уязвимость: отсутствие этических границ алгоритма. Страница 4 статьи.
Посмотреть ОригиналОтветить0
WagmiOrRekt
· 5ч назад
Блин, эта волна AI, похоже, косвенно связана с cw, да?
Крупная компания в области искусственного интеллекта сейчас сталкивается с семью отдельными исками, в которых утверждается, что ее чат-бот толкал пользователей к опасным последствиям. Юридические дела касаются трагических обстоятельств: четыре человека, как сообщается, покончили с собой, в то время как трое других испытали серьезные проблемы с психическим здоровьем после использования AI-сервиса. Эти инциденты поднимают насущные вопросы о протоколах безопасности ИИ и потенциальных психологических рисках систем разговорного ИИ, к которым ежедневно обращаются миллионы.