НЬЮ-ЙОРК, 10 мар (Рейтер) - Американский ИИ-стартап Anthropic в понедельник подал иск, пытаясь заблокировать решение Пентагона о внесении компании в черный список по соображениям нацбезопасности, ограничений на использование модели искусственного интеллекта Claude.
В иске Anthropic указала, что это решение было незаконным и нарушало ее права на свободу слова и надлежащую правовую процедуру. Компания обратилась в федеральный суд Калифорнии с просьбой отменить это решение и запретить федеральным ведомствам его применять. «Эти действия беспрецедентны и незаконны. Конституция не позволяет правительству использовать свою огромную власть, чтобы наказывать компанию (за высказывания, защищенные правом на свободу слова)», - говорится в иске. Пентагон в четверг присвоил Anthropic статус риска для цепочек поставок, ограничив использование его технологий, которые, по словам двух источников, применялись в ходе военных операций в Иране. Министр обороны Пит Хегсет включил компанию в данный список после того, как стартап отказался убрать защитные барьеры, не позволяющие использоватьего модели ИИ для автономного оружия или слежки внутри страны.
Стороны уже в течение нескольких месяцев вели все более острые переговоры по поводу этих ограничений. Трамп в посте в социальных сетях приказал всему правительству прекратить использовать Claude.
Anthropic и Белый дом не ответили немедленно на просьбу Рейтер о комментарии.
Оригинал сообщения на английском языке доступен по коду: ( Джек Куин при участии Дипы Ситараман, Джуби Бабу, Мринмая Дея, Криса Томаса)