Модель искусственного интеллекта Claude Mythos Preview, которую разработавшая ее компания Anthropic предоставила лишь нескольким десяткам избранных партнеров, попала к несанкционированным пользователям. Несколько пользователей частного онлайн-форума получили доступ к Mythos в тот же день, что и партнеры, рассказал Bloomberg знающий об этом человек; агентство также ознакомилось с подтверждающими это документами. Группа, занимающаяся поиском информации о еще не выпущенных моделях, использовала несколько инструментов и тактик, в том числе доступ, которым обладал источник Bloomberg в качестве сотрудника компании — подрядчика Anthropic.
Как сообщала сама Anthropic, ИИ-модель Mythos настолько мощна, что способна выявлять и использовать уязвимости в любой крупной операционной системе и веб-браузере. Это делает ее потенциально мощнейшим оружием в руках киберпреступников. «Модели искусственного интеллекта достигли такого уровня навыков кодирования, что теперь могут превзойти всех людей, кроме самых опытных специалистов, в поиске и использовании уязвимостей программного обеспечения», — сообщала Anthropic. Поэтому она впервые выложила модель не в открытый доступ, а предоставила партнерам, чтобы они могли с ее помощью протестировать свои системы на предмет безопасности. Mythos получили, в частности, Amazon, Apple, Microsoft, Cisco Systems, CrowdStrike, а также крупнейший банк США JPMorgan Chase.
Получившие доступ к Mythos люди регулярно ее используют, хотя только в целях, не связанных с кибербезопасностью, рассказал источник Bloomberg, подтвердив свои слова скриншотами и живой демонстрацией работы модели. По его утверждению, чтобы избежать обнаружения со стороны Anthropic, решались такие задачи, как создание простых веб-сайтов.
«Мы проводим расследование по поводу сообщения о несанкционированном доступе к Claude Mythos Preview через одну из сред сторонних поставщиков», — заявил представитель Anthropic. По утверждению компании, на данный момент у нее нет свидетельств того, что доступ распространился далее или что несанкционированные действия как-то влияют на ее системы.
Потенциальные угрозы, связанные с этой ИИ-моделью, заставили Министерство финансов и Федеральную резервную систему США провести срочное совещание с руководителями крупнейших банков, чтобы обсудить их киберзащиту и потенциальные риски, способные подорвать стабильность банковской системы.
Эксперты по безопасности предупреждают, что при попадании ИИ-модели в руки хакеров те могут с ее помощью использовать уязвимости быстрее, чем компании и иные организации будут способны их устранять, отмечает Financial Times. Процедуры безопасности Anthropic уже вызвали ряд нареканий, напоминает газета. В марте в общедоступном кэше данных были обнаружены описания модели, включая ее название; компания объяснила это ошибкой сотрудника.
А в начале апреля был обнародован исходный код Claude Code — помощника по программированию, разработанного компанией.
Россия использует ИИ для усиления кибератак на Европу, и эта угроза будет только нарастать, предупредила в годовом отчете Службы разведки и безопасности Министерства обороны Нидерландов. Возможности России расширяются, и ее хакеры способны осуществлять кибератаки с высокой интенсивностью, говорится в нем: «Отчасти это объясняется тем, что они могут частично автоматизировать свои атаки, в том числе с помощью искусственного интеллекта».