大規模言語モデル用推論エンジン「vLLM」にRCE脆弱性
大規模言語モデル(LLM)向けの推論エンジン「vLLM」に、リモートよりコードを実行されるおそれがある脆弱性が判明した。アップデートで修正されている。
「同0.6.5」以降において、「PyNcclPipe」インタフェースを使用した「KVキャッシュ転送機能」に脆弱性「CVE-2025-47277」が確認された。
「send_obj」経由で細工したオブジェクトを送信すると、「pickle.loads」によりデシリアライズ処理が行われ、任意のコードを実行されるおそれがある。
「TCPStore」が指定されたインタフェースではなく、すべてのネットワークインタフェースでバインドされてしまう「PyTorch」の仕様に起因。「V0エンジン」と「PyNcclPipe」を連携させた構成のみ影響を受けるとしている。
共通脆弱性評価システム「CVSSv3.1」のベーススコアは「9.8」、重要度は「クリティカル(Critical)」とレーティングされている。
開発チームでは、現地時間2025年4月28日にリリースした「vLLM 0.8.5」で脆弱性を修正した。アップデートが呼びかけられている。
(Security NEXT - 2025/05/28 )
ツイート
関連リンク
PR
関連記事
Fortinet複数製品の認証回避脆弱性、悪用が発生 - 設定確認を
「Apache Commons Text」旧版に深刻な脆弱性 - 「FileMaker Server」に影響
「Chrome」にアップデート - 「WebGPU」「V8」の脆弱性を解消
SAP、月例パッチで脆弱性15件を修正 - 「クリティカル」も
AppleやGladinet製品の脆弱性悪用に注意喚起 - 米当局
「iOS」にアップデート - 「WebKit」のゼロデイ脆弱性2件など修正
ConnectWise「ScreenConnect」のサーバコンポーネントに脆弱性
「Node.js」のアップデート、公開を延期 - 週内にリリース予定
「macOS Tahoe 26.2」で脆弱性47件を修正 - 「Safari」も更新
「Chromium」ゼロデイ脆弱性、Macに影響 - 米当局が注意喚起
