Искусственный интеллект и угрозы безопасности

Безопасность в эпоху нейросетей. Раздел посвящен тому, как искусственный интеллект меняет правила игры: дипфейки, использование ChatGPT хакерами, уязвимости в LLM-моделях и новые методы защиты с помощью машинного обучения.

Пароли от нейросетей взламываются за часы: почему ChatGPT, Claude и Gemini не умеют генерировать случайные строки

by Дарья Морозова

ChatGPT, Claude и Gemini создают пароли с энтропией 20–27 бит вместо 98. Хакерам хватит часов на подбор. Что использовать вместо нейросети.

Читать далее

Google: государственные хакеры используют Gemini на всех этапах атак и пытаются клонировать модель

by Артем Сафонов

Квартальный отчёт GTIG описывает, как группировки из КНДР, Ирана, Китая и России используют Gemini для разведки, фишинга и разработки вредоносного кода. Обнаружены массовые попытки дистилляции модели.

Читать далее

Стандарт с открытыми дверями: Почему архитектура Anthropic MCP ставит под удар облачные среды

by Артем Сафонов

Популярный протокол Anthropic для ИИ-агентов стал индустриальным стандартом, но пренебрег безопасностью. Глобальный аудит 8 000 серверов выявил критические уязвимости: от кражи ключей доступа к AWS до удаленного выполнения кода.

Читать далее

AI взломал AI: уязвимость в Clawdbot найдена за 1,5 часа (RCE через один клик)

by Артем Сафонов

Критическая уязвимость в Clawdbot. Эксперимент Ethiack показал будущее кибербезопасности: автономный ИИ-пентестер Hackian всего за 1 час 40 минут нашел способ захватить контроль над популярным ассистентом Clawdbot (Moltbot).

Читать далее

Дуров отказался от сделки с Маском на $300 млн ради сохранения приватности пользователей

by Артем Сафонов

Приватность дороже $300 млн: почему Дуров отказал Маску Весной 2025 года Telegram был в шаге от партнерства с xAI: интеграция помощника Grok могла принести мессенджеру сотни миллионов долларов инвестиций.

Читать далее

Husn Canaries: как отследить утечку корпоративного кода в ChatGPT и Copilot

by Адриан Ванс

Инструмент Husn Canaries предлагает использовать цифровые «канарейки» - скрытые маркеры, которые мгновенно сигнализируют службе безопасности, если интеллектуальная собственность компании попала в контекст ChatGPT, Claude или Copilot.

Читать далее

Microsoft раскрыла три сценария атак на ИИ-агентов и показала, как их останавливать в реальном времени

by Артем Сафонов

Ваш ИИ-помощник может стать идеальным шпионом, и вы даже не заметите подвоха. Microsoft опубликовала исследование нового класса атак, где злоумышленники не ломают код, а просто "просят" агента слить базу данных, спрятав инструкцию в обычном счете на оплату.

Читать далее

В Chrome теперь можно удалить локальные ИИ-модели: новая настройка приватности

by Артем Сафонов

Google продолжает встраивать искусственный интеллект в защиту браузера, но теперь дает пользователям право выбора. Новая скрытая настройка позволяет полностью удалить локальные модели.

Читать далее