大規模言語モデル用推論エンジン「vLLM」にRCE脆弱性
大規模言語モデル(LLM)向けの推論エンジン「vLLM」に、リモートよりコードを実行されるおそれがある脆弱性が判明した。アップデートで修正されている。
「同0.6.5」以降において、「PyNcclPipe」インタフェースを使用した「KVキャッシュ転送機能」に脆弱性「CVE-2025-47277」が確認された。
「send_obj」経由で細工したオブジェクトを送信すると、「pickle.loads」によりデシリアライズ処理が行われ、任意のコードを実行されるおそれがある。
「TCPStore」が指定されたインタフェースではなく、すべてのネットワークインタフェースでバインドされてしまう「PyTorch」の仕様に起因。「V0エンジン」と「PyNcclPipe」を連携させた構成のみ影響を受けるとしている。
共通脆弱性評価システム「CVSSv3.1」のベーススコアは「9.8」、重要度は「クリティカル(Critical)」とレーティングされている。
開発チームでは、現地時間2025年4月28日にリリースした「vLLM 0.8.5」で脆弱性を修正した。アップデートが呼びかけられている。
(Security NEXT - 2025/05/28 )
ツイート
関連リンク
PR
関連記事
「ServiceNow」に深刻な脆弱性 - 2025年10月更新で修正済み
悪用リストに脆弱性4件登録 - サポートツールやPBXなど3製品
脆弱性管理ツール「Rapid7 InsightVM」に脆弱性 - 認証回避のおそれ
「Chrome」に重要度「高」脆弱性が2件 - アップデートを公開
「Raspberry Pi」向け無線LAN管理ツールに脆弱性 - 修正版が公開
「vLLM」に深刻なRCE脆弱性 - 動画を扱う環境に影響
「SandboxJS」にあらたなサンドボックス回避脆弱性 - 再度修正を実施
LAN側からtelnet有効化できるマニュアル未記載機能 - NETGEAR製EOLルータ
「Apache Hadoop HDFS」に脆弱性 - アップデートが公開
直近更新で修正された「OpenSSL」脆弱性、「クリティカル」との評価も
