Большие языковые модели будут автоматически делать выводы о структуре без явного руководства — это проблема, которую необходимо признать. Если вы согласны с этим предположением, то отказ от предоставления соответствующей рамки руководства не является нейтральной позицией. На самом деле, это фактически означает активное введение переменного этического риска. Как разработать меры безопасности системы, как установить разумные ограничения на поведение ИИ — все это влияет на долгосрочную надежность применения технологий.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
19 Лайков
Награда
19
6
Репост
Поделиться
комментарий
0/400
LightningSentry
· 01-19 23:55
Не предоставлять направляющую рамку = тайно закладывать мину? Мне нужно подумать над этой логикой
Посмотреть ОригиналОтветить0
CryptoCross-TalkClub
· 01-19 16:26
смешно, это как позволить быкам самим выбирать способ быть срезанными
---
если AI работает без контроля, он автоматически делает случайные предположения, чем это отличается от того, что проектные команды не публикуют белую книгу
---
по сути, это перекладывание ответственности на "нейтральных", на самом деле это просто шалость
---
значит, систему безопасности нужно собирать самостоятельно, почему это так похоже на риск-менеджмент в криптомире
---
AI без ограничений — это как маржа без стоп-лосса, результат всегда один — печальный
---
эту логику я люблю, "без руководства" тоже руководство, у всех уже есть это ощущение
---
этические риски? братан, ты говоришь о больших моделях или о некоторых проектных командах
Посмотреть ОригиналОтветить0
digital_archaeologist
· 01-18 11:44
Отсутствие предоставления самого фреймворка — это и есть фреймворк, эта логика просто гениальна
Посмотреть ОригиналОтветить0
TokenAlchemist
· 01-18 11:43
нет, это просто проблема рамки, замаскированная под этический дискурс... большие языковые модели будут делать выводы независимо от этого, настоящее преимущество — понять, *какие* векторы вывода важны для вашего случая использования, а не притворяться, что механизмы ограничения нейтральны lol
Посмотреть ОригиналОтветить0
PhantomHunter
· 01-18 11:39
Честно говоря, логика "нейтральность — это безопасность" изначально не выдерживает критики.
Большие языковые модели будут автоматически делать выводы о структуре без явного руководства — это проблема, которую необходимо признать. Если вы согласны с этим предположением, то отказ от предоставления соответствующей рамки руководства не является нейтральной позицией. На самом деле, это фактически означает активное введение переменного этического риска. Как разработать меры безопасности системы, как установить разумные ограничения на поведение ИИ — все это влияет на долгосрочную надежность применения технологий.