Этика ИИ: почему важно сейчас работать над этичным ИИ


Откройте для себя лучшие новости и события в финтехе!

Подписывайтесь на рассылку FinTech Weekly

Читают руководители JP Morgan, Coinbase, Blackrock, Klarna и других компаний


Этика искусственного интеллекта — одна из главных забот инвесторов и аналитиков, особенно с момента появления ChatGPT от OpenAI, которая стала самым быстрорастущим приложением.

Этика необходима, если мы хотим, чтобы искусственный интеллект не стал опасным и использовался правильно — особенно в финтех-индустрии, поскольку неправильное использование неподготовленного ИИ в финансах может быть особенно опасным.

Почему этика ИИ становится в центре внимания

Этика в области искусственного интеллекта привлекает внимание как положительными, так и отрицательными новостями.

В то время как Microsoft недавно сократила свой отдел AI & Society — оставив всего 7 человек во время одной из волн сокращений, затронувших компанию, — многие аналитики и организации пытаются задуматься над этой темой и размышляют о том, почему этика важна.

Это также включает международные организации и политиков, что, возможно, поможет обычным пользователям — возможно, еще слишком неосведомленным о прогрессе искусственного интеллекта — убедиться, что ИИ — это не только бизнес-тема.

23 ноября 2021 года ЮНЕСКО выпустило документ «Рекомендации по этике искусственного интеллекта», который затем был принят 193 государствами-членами.

Рекомендации начинаются с фразы: «Принимая полностью во внимание, что быстрое развитие технологий ИИ ставит под угрозу их этическую реализацию и управление, а также уважение и защиту культурного разнообразия, и имеет потенциал нарушить местные и региональные этические стандарты и ценности».

Упоминание мультикультурализма важно в контексте ИИ.

Как мы увидим чуть позже, важно учитывать, что не все умеют управлять и использовать ИИ, и если он останется прерогативой технологических профессионалов и предприятий, некоторым культурам и сегментам населения может быть трудно получить доступ к этой важной технологии.

Есть ли у нас осознанный ИИ?

Пока что — нет, по крайней мере, не существует осознанного ИИ.

На сегодняшний день инструменты на базе ИИ обучаются людьми и данными. С одной стороны, это означает, что ИИ пока нельзя считать слишком опасным, с другой — если люди предоставляют предвзятые данные, то и ответы ИИ будут предвзяты.

То же самое касается случаев, когда данные и обучение предоставляются только определенными специалистами и в определенных странах.

Как сообщает MIT, разрыв в гендерных показателях в STEM (наука, технологии, инженерия и математика) остается очень значительным, и женщины, работающие в этих областях, составляют всего 28%.

Отчет IDC (International Data Corporation), «Глобальный гид по расходам на искусственный интеллект», показывает, что инвестиции в ИИ в 2023 году достигнут 154 миллиардов долларов. Но где сосредоточены эти инвестиции?

По данным InvestGlass, основные инвестиции идут в США и Китай. Также Япония, Канада и Южная Корея увеличивают вложения и стратегии, связанные с ИИ. Европейский союз не является лидером в области искусственного интеллекта — хотя такие страны, как Германия и Франция, развивают интересные направления в этой сфере.

Все эти данные показывают, что не все участвуют в этой революции, а это, безусловно, может негативно сказаться на этическом и ценностном развитии ИИ.

Если ИИ останется слишком сосредоточенным в определенных странах и сферах, данные, которые он будет производить, обязательно будут предвзятыми.

Если мультикультурализм еще не полностью учтен, инвесторы уже ищут технологии, которые могут быть социально ответственными и этичными.

Что думают инвесторы об ИИ?

За последние годы возросла общая осведомленность о социальной ответственности, и инвесторы все чаще предпочитают бизнесы, не наносящие вред обществу.

В случае с искусственным интеллектом сложно не только создать глобальные рамки для регулирования технологий, но и полностью понять, что на самом деле считается этичным в контексте ИИ.

ИИ относительно нов и его правильное понимание усложняется постоянными изменениями.

Именно поэтому инвесторы используют разные методы для оценки возможных будущих разработок ИИ-бизнеса, а также его этики со временем и по мере внесения изменений.

Как сообщает TechCrunch, кажется, что инвесторам может быть полезнее оценивать характеристики и качества владельца проекта, чтобы лучше понять, как он или она может реагировать на новые рамки и как они хотят управлять проектом ИИ несмотря на постоянные изменения.

Таким образом, даже говоря об ИИ, последнее слово все равно за человеком — и чем более этичны люди, использующие ИИ, тем более этичным будет ИИ в будущем.

Заключительные мысли

Этика ИИ — сложная тема, и трудно определить, как сделать ИИ этичным.

ИИ не обладает сознанием, у него нет души — независимо от того, как можно определить душу.

Несмотря на это, сейчас крайне важно работать над этикой ИИ, чтобы максимально снизить возможные опасности в будущем.


Если хотите больше узнать о новостях, событиях и аналитике в финтехе, подписывайтесь на рассылку FinTech Weekly!

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить