27 мар (Рейтер) - Американский суд в четверг временно заблокировал решение министерства обороны США о внесении в черный список компании Anthropic - разработчика чатбота Claude, - принятое после того, как стартап отказался убрать защитные барьеры, не позволяющие использовать его модели искусственного интеллекта для автономного оружия или слежки внутри страны.
Министр обороны Пит Хегсет присвоил Anthropic статус риска для цепочек поставок, ограничив использование его технологий, которые, по словам источников, применялись в ходе военных операций в Иране.
Anthropic утверждает, что федеральное правительство нарушило право компании на свободу слова и исключило ее технологии из применения в отместку за позицию в вопросах безопасности ИИ.
Судья согласилась с доводами истца в 43-страничном решении, но отложила вступление решения в силу на семь дней, чтобы дать администрации время на подачу апелляции.
Оригинал сообщения на английском языке доступен по коду: (Джек Куин и Канишка Сингх при участии Эндрю Чанга)