vLLM — это механизм вывода и обслуживания для больших языковых моделей (LLM). В версиях от 0.6.4 до 0.12.0 пользователи могут привести к сбою механизма vLLM, обслуживающего мультимодальные модели, использующие реализацию модели видения Idefics3, отправив специально созданное изображение размером 1x1 пиксель. Это вызывает несоответствие размеров тензора, что приводит к необработанной ошибке времени выполнения, что приводит к полному завершению работы сервера.
Эта проблема исправлена в версии 0.12.0.
Показать оригинальное описание (EN)
vLLM is an inference and serving engine for large language models (LLMs). In versions from 0.6.4 to before 0.12.0, users can crash the vLLM engine serving multimodal models that use the Idefics3 vision model implementation by sending a specially crafted 1x1 pixel image. This causes a tensor dimension mismatch that results in an unhandled runtime error, leading to complete server termination. This issue has been patched in version 0.12.0.
Характеристики атаки
Последствия
Строка CVSS v3.1
Тип уязвимости (CWE)
Уязвимые продукты 1
| Конфигурация | От (включительно) | До (исключительно) |
|---|---|---|
|
Vllm Vllm
cpe:2.3:a:vllm:vllm:*:*:*:*:*:*:*:*
|
0.6.4
|
0.12.0
|