Microsoft рассказала, как защищает генеративные ИИ-модели в Azure AI Foundry
Microsoft объяснила, как защищает генеративные ИИ-модели в Azure AI Foundry: проверка моделей, Zero Trust и изоляция данных
Читать далее →Microsoft объяснила, как защищает генеративные ИИ-модели в Azure AI Foundry: проверка моделей, Zero Trust и изоляция данных
Читать далее →За две недели Claude Opus 4.6 нашёл в Firefox больше критичных уязвимостей, чем живые исследователи за месяцы. 14 из 22 оценены как высокой опасности. Одна получила CVSS 9.8.
Читать далее →ИИ-агент из 89 000 кандидатов находит владельца анонимного аккаунта за $4 и с точностью 90%. Исследователи из ETH Zurich и Anthropic доказали, что классические методы деанонимизации по сравнению с LLM набирают менее 5%.
Читать далее →ИИ-расширение Blackbox AI для VS Code (4,7 млн установок) содержит уязвимость инъекции промта: скрытая инструкция в PNG-файле приводит к root-доступу злоумышленника. Агент извинился, сделал файл исполняемым и запустил его от имени суперпользователя. ERNW два месяца не могла связаться с разработчиками.
Читать далее →Злоумышленник выложил полную базу ИИ-генератора звуков OptimizerAI, 118 тыс. записей, привязывающих Google-аккаунты к Discord-профилям, и 1,1 млн коммерческих аудиофайлов.
Читать далее →BI.ZONE обнаружила на командном сервере хактивистов Forbidden Hyena скрипты, созданные с помощью ИИ. Группировка атакует российские госорганы и компании, используя троян BlackReaperRAT и шифровальщик Milkyway. Пока доля ИИ-атак не превышает 1%, но тренд усиливается.
Читать далее →Mozilla выпустила Firefox 148 с переключателем для отключения всех ИИ-функций и закрыла 3 уязвимости с выходом из песочницы браузера.
Читать далее →Как хакер использовал нейросети для взлома межсетевых экранов FortiGate?
Читать далее →ChatGPT, Claude и Gemini создают пароли с энтропией 20–27 бит вместо 98. Хакерам хватит часов на подбор. Что использовать вместо нейросети.
Читать далее →Квартальный отчёт GTIG описывает, как группировки из КНДР, Ирана, Китая и России используют Gemini для разведки, фишинга и разработки вредоносного кода. Обнаружены массовые попытки дистилляции модели.
Читать далее →Популярный протокол Anthropic для ИИ-агентов стал индустриальным стандартом, но пренебрег безопасностью. Глобальный аудит 8 000 серверов выявил критические уязвимости: от кражи ключей доступа к AWS до удаленного выполнения кода.
Читать далее →Дефицит кадров в ИБ 50 000 человек. Зарплаты топов пробили потолок в 1 млн рублей. Российские «автопилоты» (вроде MaxPatrol O2) уже делают работу аналитика SOC в 50 раз быстрее.
Читать далее →Компания Anthropic представила обновлённую версию своей флагманской ИИ‑модели Claude Opus 4.6. Новинка переходит от роли чат‑бота к статусу автономного агента.
Читать далее →Исследователи из Университета Олбани разрушили миф о том, что нейросети структурируют данные просто и линейно.
Читать далее →Критическая уязвимость в Clawdbot. Эксперимент Ethiack показал будущее кибербезопасности: автономный ИИ-пентестер Hackian всего за 1 час 40 минут нашел способ захватить контроль над популярным ассистентом Clawdbot (Moltbot).
Читать далее →