以下の内容はhttps://tech.timee.co.jp/entry/2026/01/28/134844より取得しました。


MLOpsエンジニアがAI Security Conferenceに参加してきたレポート

MLOpsエンジニアのtomoppiです。

データエンジニアリング部 データサイエンスグループ(以下、DSG)に所属し、ML/LLM基盤の構築・改善に取り組んでいます。

AI Security Conferenceに参加してきたので、そのレポート記事となります。

余談ですが、当日はまい泉のお弁当をご用意いただきました。大好きなまい泉のカツサンドが出てきて、個人的に最もテンションが上がったポイントでした。

Findy Toolsさんとスポンサーの企業様には、感謝してもしきれません。

以降、真面目にレポートしていきます。

参加動機

MLOpsエンジニアとして本カンファレンスに参加した理由は、3ラインモデルの「第1線」を担う立場として、LLM特有のリスク管理をMLOpsのサイクルに組み込む重要性を感じているからです。

現在、タイミーのMLOpsチームでは、LLM API/LLMOps基盤の開発・運用を通じ、「安心・安全な利用」を最優先事項の一つとして取り組んでいます。

これまでも、LLMアプリケーション向けProduction Readiness Checklistの策定を通じて、セキュリティ観点の整理を進めてきました。

また社内勉強会では、OWASP Top 10 for LLMAI-IRSといったフレームワークを紹介するなど、社内共有も行ってきました。

今回は、これまでの知見をさらに一歩進めるべく、他社の実務に即したセキュリティ運用の事例を収集し、自社基盤へフィードバックするヒントを得る目的で参加してきました。

全体を通して

大きく分けると、テーマは次の3本立てでした。

  • AIガバナンス(組織としてどう決めて回すか)
  • Security & Safety for AI(LLMを利用する際のセキュリティ対策)
  • AI for Security(セキュリティ運用でAIをどう使うか)

各社の前提が違うぶん「唯一の正解」があるわけではなく、それぞれの現実的な落とし所が共有されていたのが良かったです。

共通していたメッセージは、次の3点だと理解しました。

  • セキュリティは重要だが、ブレーキになりすぎると活用が止まる
  • だからこそSecure by Defaultとなるアーキテクチャとプロセスが大事
  • ただし各種ツールはまだ未成熟で、トレードオフの中で各社が意思決定している

印象に残ったセッション

信頼できるAIの実現に向けた東京海上グループのAIガバナンスとセキュリティ戦略(東京海上ホールディングス株式会社)

このセッションは、「信頼できるAI」について、方針→基準→運用→技術の流れで一本の線として説明されており、全体像がつかみやすかったです。

ポイント

  • セーフティセキュリティをまず切り分けて考える
    • セーフティ: AIが誤答や偏りで「害を出さない」ようにする(品質・倫理・説明責任)
    • セキュリティ: 攻撃や漏洩から「守る」(プロンプトインジェクション、機密情報、権限など)
    • そして両方を、場当たり対応ではなくガバナンス(方針・役割・プロセス・監査)として運用する
  • ガバナンスを基本方針/実施基準/実施要領の3層に分け、外向けと運用を切り分ける
  • AIリスクの議論はまずリスクの地図を作ってから話す(論点の漏れ・重複を防ぐ)
    • 例: 意図しない損害、バイアス、説明責任、情報漏洩、モデル脆弱性などを上位カテゴリとして押さえる
  • モデル検証(開発時)ガードレール(実行時)を分けて考える
  • 独自流ではなく、可能な限りグローバル標準の枠組みに寄せる(例: MITRE ATLAS
  • ツールは黎明期なので、ツールありきではなくアーキテクチャとプロセスで統制できる型を先に作る

感想

セーフティ/セキュリティを分けて“運用”に落とす考えは、タイミーで進めているLLM基盤設計でも活用したいと思いました。

また、グローバル企業として関連会社が多いことから、全体を束ねるAI CoE(Center of Excellence) / AI Hubの構想も語られていました。組織の大きさや、そこでガバナンスをスケールさせる難しさについて、ヒントを得られる内容でした。

freee社のAI導入とセキュリティ対策(フリー株式会社)

freee社のセッションは、「AIを全社で使う」前提に立ったときに、セキュリティをブレーキではなく「前に進める仕組み」として設計していたのが印象的でした。

ポイント

  • 主要リスクは漏洩ハルシネーションコスト(扱うデータが機微なので)
  • 展開は実験場 → 交通ルール → 安全装置 → 本格展開の段階設計
  • 「安全装置」をプロキシ(LiteLLMなど)で型化し、ログ・機微情報遮断・出力制御を必須ライン化
  • 市場が追いつかない領域は小さく内製(セキュリティレビュー/脆弱性診断の自動化など)
  • 役割分担も、従来のCSIRT(コーポレート)/PSIRT(プロダクト)の分担を前提にしつつ、
    • ブルー/レッド/ホワイト/パープルの「色」で責務を切り直す
    • 背景: プロダクト特性の変化により守る範囲が広がり、従来の分業だけだと壁ができやすい
    • ねらい: 特にパープルでレッドとブルーの連携を促進し、スピードを落とさない

感想

freee社の発表は、セキュリティ担当部門として“何をどう守るか”が具体的で、解像度が上がりました。要素技術面に関しても、タイミーでLiteLLMを利用した基盤開発を進めていることもあり、実際的に参考になる内容が多かったです。

まとめ

今回一番のキーメッセージだと思ったのは、「AIセキュリティはツールを揃える前に、ガバナンスとアーキテクチャで回る型を先に作るのが大事」という点でした。

東京海上のセッションでは、セーフティ / セキュリティを切り分けたうえで、方針→基準→運用→技術へ落としていくことで、場当たり対応を防げるという点が整理されていました。

freeeのセッションでも、段階的に展開しつつ、プロキシを「安全装置」として型化してスピードを落とさない設計が重要と語られていました。

完璧主義で全部揃えてから進むのではなく、リスクベースで段階的に進めながら、使うだけで守られる状態(Secure by Default)に近づけていくことが、当面の目標になりそうだと思いました。

AI CoEやカラーコードのような組織設計は、いますぐ真似できるものではないですが、「活用を止めないために、どう責務とプロセスを設計するか」という観点は持っておきたいです。

タイミーでも現在、LLM基盤の構築と並行して、LLM機能の検証をいろいろ進めています。今回の学びをヒントに、取り組みを安全に加速させていきます。




以上の内容はhttps://tech.timee.co.jp/entry/2026/01/28/134844より取得しました。
このページはhttp://font.textar.tv/のウェブフォントを使用してます

不具合報告/要望等はこちらへお願いします。
モバイルやる夫Viewer Ver0.14