vLLM — это механизм вывода и обслуживания для больших языковых моделей (LLM). Начиная с версии 0.16.0 до версии 0.19.0, уязвимость подделки запросов на стороне сервера (SSRF) в download_bytes_from_url позволяет любому субъекту, который может управлять пакетным вводом JSON, заставить средство обработки пакетов vLLM выдавать произвольные запросы HTTP/HTTPS с сервера без какой-либо проверки URL-адреса или ограничений домена. Это можно использовать для таргетинга на внутренние службы (например, конечные точки облачных метаданных или внутренние API-интерфейсы HTTP), доступные с хоста vLLM.
Эта уязвимость исправлена в версии 0.19.0.
Показать оригинальное описание (EN)
vLLM is an inference and serving engine for large language models (LLMs). From 0.16.0 to before 0.19.0, a server-side request forgery (SSRF) vulnerability in download_bytes_from_url allows any actor who can control batch input JSON to make the vLLM batch runner issue arbitrary HTTP/HTTPS requests from the server, without any URL validation or domain restrictions. This can be used to target internal services (e.g. cloud metadata endpoints or internal HTTP APIs) reachable from the vLLM host. This vulnerability is fixed in 0.19.0.
Характеристики атаки
Последствия
Строка CVSS v3.1