Hello there, ('ω')ノ
サプライチェーンリスクとは?
普通のソフトウェアでも「古いライブラリ」「怪しい依存パッケージ」「ライセンス違反」などの問題があります。生成AIではこれに加えて:
- 外部の学習済みモデル(例:Hugging Faceからダウンロードしたモデル)
- ファインチューニング用の追加モジュール(LoRAなど)
- 共同開発環境で共有されるモデル
- 端末やデバイスに組み込まれるオンデバイスAI
といった新しい供給元がリスクになります。
具体例:初心者でもイメージしやすい攻撃シナリオ
例 1:怪しい追加部品(LoRAアダプタ)
- 攻撃:誰かが配布したLoRAをダウンロードして取り付けたら、中に悪意あるコードやバックドアが仕込まれていた。
- AIの誤作動:ベースモデルの出力が操作され、秘密情報を外部に送信する。
- 被害:情報漏洩、利用者の信頼失墜。
- 簡単防御:公式や信頼できる提供元のみ利用し、ハッシュや署名で検証する。
例 2:共同開発のすき間を突かれる
- 攻撃:Hugging Faceの「モデル統合」機能を悪用し、共有環境に不正な改造モデルを混ぜる。
- AIの誤作動:みんなが使うモデルに気づかないうちに脆弱性が入り込む。
- 被害:全社的なモデル汚染、内部システムの被害拡大。
- 簡単防御:共同開発環境の監査とアラートを必須にする。
例 3:端末に入れたAIが改ざんされる
この続きはcodocで購入