Anthropic ослабляет обязательства по безопасности ИИ, вызывая новую конкуренцию с OpenAI

GateNews

25 февраля Anthropic недавно скорректировал свою политику безопасности искусственного интеллекта, отменив первоначальное обещание запретить обучение современных систем искусственного интеллекта до полного внедрения мер безопасности. Это изменение даёт Anthropic большую гибкость в конкуренции с OpenAI, Google и xAI, а также вызывает обсуждения в отрасли о балансе между стремительным развитием искусственного интеллекта и гарантиями безопасности.

Главный научный сотрудник Anthropic, Джаред Каплан, отметил, что прекращение обучения на самом деле не решает проблемы безопасности, и одностороннее приостановка разработки неразумна, когда конкуренты быстро продвигаются. Компания подчёркивает, что повысит прозрачность, публикуя передовые дорожные карты безопасности и регулярные отчёты о рисках, а также задерживая разработку, если будут выявлены значительные риски катастроф.

Эдвард Гейст, старший исследователь политики корпорации RAND, отметил, что ранняя концепция безопасности ИИ возникла из акцента на конкретной группе мощных ИИ, и современные крупные языковые модели (LLM) переопределили эту концепцию. Изменение формулировки политики посылает инвесторам и политикам сигнал, что компании стремятся управлять рисками, оставаясь при этом экономически конкурентоспособными.

OpenAI также пересмотрела свою миссию в 2024 году, убрав слово «безопасность» и заявив цель как «обеспечение того, чтобы искусственный общий интеллект приносил пользу всему человечеству». Эта серия корректировок показывает, что лидеры отрасли смещаются в сторону более гибких и масштабируемых стратегий в плане политики и формулировок.

Anthropic недавно завершила финансирование на сумму 30 миллиардов долларов с оценкой около 380 миллиардов долларов; OpenAI также привлекает до 100 миллиардов долларов. В этом контексте компании в сфере ИИ сталкиваются с геополитической конкуренцией и государственными контрактами. Будет ли Министерство обороны США продолжать сотрудничать с Anthropic, пока не определено, что делает смену политики более разумной и стратегической.

В совокупности корректировки политики между Anthropic и OpenAI знаменуют новый этап в игре между быстрым развитием и регулированием безопасности в индустрии искусственного интеллекта, а также отражают стратегическую гибкость предприятий под влиянием стимулирования капитала и политического давления.

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев