vLLM — это механизм вывода и обслуживания для больших языковых моделей (LLM). Начиная с версий 0.10.2 и до 0.11.1, в конечной точке Completions API существует уязвимость повреждения памяти, которая может привести к сбою (отказ в обслуживании) и потенциальному удаленному выполнению кода (RCE). При обработке введенных пользователем вложений подсказок конечная точка загружает сериализованные тензоры с помощью torch.load() без достаточной проверки.
Из-за изменения, внесенного в PyTorch 2.8.0, проверки целостности разреженного тензора по умолчанию отключены. В результате злонамеренно созданные тензоры могут обходить внутренние проверки границ и инициировать запись в память за пределами границ во время вызова to_dense(). Такое повреждение памяти может привести к сбою vLLM и потенциально привести к выполнению кода на сервере, на котором размещен vLLM.
Эта проблема исправлена в версии 0.11.1.
Показать оригинальное описание (EN)
vLLM is an inference and serving engine for large language models (LLMs). From versions 0.10.2 to before 0.11.1, a memory corruption vulnerability could lead to a crash (denial-of-service) and potentially remote code execution (RCE), exists in the Completions API endpoint. When processing user-supplied prompt embeddings, the endpoint loads serialized tensors using torch.load() without sufficient validation. Due to a change introduced in PyTorch 2.8.0, sparse tensor integrity checks are disabled by default. As a result, maliciously crafted tensors can bypass internal bounds checks and trigger an out-of-bounds memory write during the call to to_dense(). This memory corruption can crash vLLM and potentially lead to code execution on the server hosting vLLM. This issue has been patched in version 0.11.1.
Характеристики атаки
Последствия
Строка CVSS v3.1
Тип уязвимости (CWE)
Уязвимые продукты 3
| Конфигурация | От (включительно) | До (исключительно) |
|---|---|---|
|
Vllm Vllm
cpe:2.3:a:vllm:vllm:*:*:*:*:*:*:*:*
|
0.10.2
|
0.11.1
|
|
Vllm Vllm
cpe:2.3:a:vllm:vllm:0.11.1:rc0:*:*:*:*:*:*
|
— | — |
|
Vllm Vllm
cpe:2.3:a:vllm:vllm:0.11.1:rc1:*:*:*:*:*:*
|
— | — |