Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Противники помогают друг другу: более 30 сотрудников OpenAI и Google поддержали иск Anthropic против американского правительства
** Anthropic подала иск против правительства США**
Феникс.ком Технологии, 10 марта (по пекинскому времени), со ссылкой на журнал «Линч» сообщается, что более 30 сотрудников OpenAI и Google в понедельник представили в суд дружеское мнение (амикус) в поддержку юридической борьбы Anthropic с правительством США, среди них — главный ученый DeepMind от Google Джефф Дин (Jeff Dean).
Всего несколько часов назад Anthropic подала иск против Министерства обороны США и других федеральных агентств, которые признали компанию «риском в цепочке поставок». Эта санкционная мера правительства ограничила возможности Anthropic сотрудничать с военными подрядчиками и вступила в силу после разрыва переговоров между Anthropic и Пентагоном. Компания ищет временный судебный запрет, чтобы продолжать сотрудничество с военными партнерами во время разбирательства. Аммикус, представленный сотрудниками OpenAI и Google, был подан в поддержку этого ходатайства Anthropic.
«Если это действие (признание риска в цепочке поставок) будет разрешено продолжаться, то попытка наказать одну из ведущих американских AI-компаний без сомнения повлияет на промышленность и научное соревнование США в области ИИ и других сфер», — говорится в аммикусе OpenAI и Google.
Подписавшие аммикус включают исследователей Google DeepMind Чжэндун Ван (Zhengdong Wang), Александра Мэтта Тернера (Alexander Matt Turner) и Ноя Сигела (Noah Siegel), а также исследователей OpenAI Габриэля Ву (Gabriel Wu), Памелу Мишкин (Pamela Mishkin) и Романа Новак (Roman Novak). Аммикус — это юридический документ, представленный сторонами, не связанными напрямую с делом, но обладающими соответствующими профессиональными знаниями. В нем указано, что эти сотрудники подписали его в личном качестве, не представляя точку зрения своих компаний.
В документе отмечается, что решение Пентагона включить Anthropic в черный список «создает непредсказуемость в их отрасли, что наносит ущерб инновациям и конкурентоспособности США», а также «препятствует профессиональному обсуждению преимуществ и недостатков передовых систем ИИ». В аммикусе говорится, что если Pentagon больше не желает быть связанным контрактными условиями, он мог бы прямо расторгнуть контракт с Anthropic.
Также в документе отмечается, что заявленные Anthropic «красные линии» являются обоснованными опасениями, включая запрет использования ИИ для масштабного внутреннего наблюдения и разработки автономных смертельных оружий, а также необходимость наличия достаточных мер безопасности. «В условиях отсутствия общественного правового регулирования ограничения, налагаемые разработчиками ИИ с помощью контрактов и технических средств, — это важная гарантия предотвращения катастрофического злоупотребления этими системами», — говорится в аммикусе.
На момент публикации OpenAI и Google не прокомментировали данное событие. (Автор: Сяо Юй)