大規模言語モデル用推論エンジン「vLLM」にRCE脆弱性
大規模言語モデル(LLM)向けの推論エンジン「vLLM」に、リモートよりコードを実行されるおそれがある脆弱性が判明した。アップデートで修正されている。
「同0.6.5」以降において、「PyNcclPipe」インタフェースを使用した「KVキャッシュ転送機能」に脆弱性「CVE-2025-47277」が確認された。
「send_obj」経由で細工したオブジェクトを送信すると、「pickle.loads」によりデシリアライズ処理が行われ、任意のコードを実行されるおそれがある。
「TCPStore」が指定されたインタフェースではなく、すべてのネットワークインタフェースでバインドされてしまう「PyTorch」の仕様に起因。「V0エンジン」と「PyNcclPipe」を連携させた構成のみ影響を受けるとしている。
共通脆弱性評価システム「CVSSv3.1」のベーススコアは「9.8」、重要度は「クリティカル(Critical)」とレーティングされている。
開発チームでは、現地時間2025年4月28日にリリースした「vLLM 0.8.5」で脆弱性を修正した。アップデートが呼びかけられている。
(Security NEXT - 2025/05/28 )
ツイート
関連リンク
PR
関連記事
「Google Chrome」に8件の脆弱性 - アップデートが公開
「MS Edge」にアップデート - 脆弱性22件を解消
「MS Edge」も2度にわたり更新 - ゼロデイ脆弱性を解消
「Harbor」に脆弱性、初期PW未変更で不正アクセスのおそれ
S3互換の「MinIO」に脆弱性 - OSS版は開発終了で未修正
「NetScaler ADC/Gateway」に深刻な脆弱性 - 最新版へ更新を
「Chrome」アップデート、クリティカル含む脆弱性26件を修正
「Oracle Fusion Middleware」に深刻なRCE脆弱性 - 早急に対応を
CiscoやAppleなど脆弱性6件を悪用リストに追加 - 米当局
3月初旬修正の「Cisco Secure FMC」脆弱性が攻撃対象に
