vLLM — это механизм вывода и обслуживания для больших языковых моделей (LLM). Исправление защиты SSRF для дополнения CVE-2026-24779 в версии 0.15.1 можно обойти в методе load_from_url_async из-за несогласованного поведения анализа URL-адресов между уровнем проверки и реальным HTTP-клиентом. Исправление SSRF использует urllib3.util.parse_url() для проверки и извлечения имени хоста из URL-адресов, предоставленных пользователем.
Однако load_from_url_async использует aiohttp для выполнения фактических HTTP-запросов, а aiohttp внутренне использует библиотеку yarl для анализа URL-адресов. Эта уязвимость в версии 0.17.0.
Показать оригинальное описание (EN)
vLLM is an inference and serving engine for large language models (LLMs). The SSRF protection fix for CVE-2026-24779 add in 0.15.1 can be bypassed in the load_from_url_async method due to inconsistent URL parsing behavior between the validation layer and the actual HTTP client. The SSRF fix uses urllib3.util.parse_url() to validate and extract the hostname from user-provided URLs. However, load_from_url_async uses aiohttp for making the actual HTTP requests, and aiohttp internally uses the yarl library for URL parsing. This vulnerability in 0.17.0.
Характеристики атаки
Последствия
Строка CVSS v3.1
Тип уязвимости (CWE)
Уязвимые продукты 1
| Конфигурация | От (включительно) | До (исключительно) |
|---|---|---|
|
Vllm Vllm
cpe:2.3:a:vllm:vllm:*:*:*:*:*:*:*:*
|
0.15.1
|
0.17.0
|