Искусственный интеллект и угрозы безопасности

Безопасность в эпоху нейросетей. Раздел посвящен тому, как искусственный интеллект меняет правила игры: дипфейки, использование ChatGPT хакерами, уязвимости в LLM-моделях и новые методы защиты с помощью машинного обучения.

Anthropic закрыла для OpenClaw доступ по обычной подписке Claude

Anthropic изменила правила использования Claude: OpenClaw больше нельзя полноценно запускать в рамках обычной подписки. Пользователей переводят на API-оплату и дополнительные платные пакеты.

Читать далее

ИИ-агенты вычисляют владельцев анонимных аккаунтов с точностью 68% за $1-4 на человека

ИИ-агент из 89 000 кандидатов находит владельца анонимного аккаунта за $4 и с точностью 90%. Исследователи из ETH Zurich и Anthropic доказали, что классические методы деанонимизации по сравнению с LLM набирают менее 5%.

Читать далее

ИИ-расширение Blackbox AI для VS Code с 4,7 млн установок даёт злоумышленнику root-доступ через картинку

ИИ-расширение Blackbox AI для VS Code (4,7 млн установок) содержит уязвимость инъекции промта: скрытая инструкция в PNG-файле приводит к root-доступу злоумышленника. Агент извинился, сделал файл исполняемым и запустил его от имени суперпользователя. ERNW два месяца не могла связаться с разработчиками.

Читать далее

Хакер взломал госструктуры Мексики с помощью чат-бота Claude и украл 150 ГБ данных

by Артем Сафонов

Хакер обошёл защиту чат-бота Claude от Anthropic и использовал его для атак на госструктуры Мексики. За месяц похищено 150 ГБ данных, налоговые записи 195 миллионов граждан, списки избирателей и учётные данные чиновников. Anthropic заблокировала аккаунты, Мексика отрицает масштаб взлома.

Читать далее

В ИИ-инструменте для разработчиков Claude Code нашли три уязвимости: удалённое выполнение кода и кража API-ключей

by Артем Сафонов

Check Point нашёл три уязвимости в ИИ-помощнике Claude Code от Anthropic. Через подменённый файл настроек в репозитории злоумышленник мог выполнять команды на компьютере разработчика и красть API-ключи — без единого клика жертвы. Все проблемы уже исправлены.

Читать далее

Пароли от нейросетей взламываются за часы: почему ChatGPT, Claude и Gemini не умеют генерировать случайные строки

by Дарья Морозова

ChatGPT, Claude и Gemini создают пароли с энтропией 20–27 бит вместо 98. Хакерам хватит часов на подбор. Что использовать вместо нейросети.

Читать далее