llama.cpp — это результат нескольких моделей LLM на C/C++. До версии b8146 функция gguf_init_from_file_impl() в gguf.cpp уязвима для целочисленного переполнения, что приводит к недостаточному выделению кучи. Использование последующего fread() записывает более 528 байт данных, контролируемых злоумышленником, за границу буфера.
Это обход аналогичной ошибки в том же файле — CVE-2025-53630, но исправление упустило из виду некоторые области. Эта уязвимость исправлена в b8146.
Показать оригинальное описание (EN)
llama.cpp is an inference of several LLM models in C/C++. Prior to b8146, the gguf_init_from_file_impl() in gguf.cpp is vulnerable to an Integer overflow, leading to an undersized heap allocation. Using the subsequent fread() writes 528+ bytes of attacker-controlled data past the buffer boundary. This is a bypass of a similar bug in the same file - CVE-2025-53630, but the fix overlooked some areas. This vulnerability is fixed in b8146.
Характеристики атаки
Последствия
Строка CVSS v3.1