この記事は kintone の生成 AI チームで連載中の kintone AI リレーブログ 2026 の 3 本目の記事です。
リレーブログでは、生成 AI チームのメンバーが AI トピックに限らずさまざまなことについて発信していきます。
こんにちは!
kintone の生成 AI チームと生産性向上チームとを「兼務」して活動している高見 ( @takamin55 ) です。
Cybozu には「大人の体験入部」や「兼務」といった制度があり、所属チームの枠を超えた活動を通じてキャリアの可能性を広げることができます。
kintone 生成 AI チームは AI 機能を開発するだけでなく、自分たちの開発プロセスにも AI を積極的に活用し、日々その可能性を探求しています。
この記事では、その取り組みの 1 つとして Renovate の運用を Claude Code を使って効率化した事例を紹介します。
Renovate 運用にまつわる課題
kintone 生成 AI チームでは Renovate を使って依存関係を定期的にアップデートし、安全なプロダクトを提供できるよう心がけています。定期的に作成される Renovate の PR に対しては、以下のような対応を行なっていました。
- 変更差分のリリースノートを確認し、破壊的変更やその他の影響を調査する
- 影響がある場合はコードを修正する
- レビューする
- マージ
しかし「少人数チームである」×「複数リポジトリを持っている」という条件が重なり、Renovate の負荷が大きいという声がチームの振り返りで上がりました。
devDependencies の自動マージや packageRules を使ったグルーピングで PR をまとめて数を減らすなど、負荷軽減の工夫はしていたものの、みな終わりのない Renovate 業務に疲弊していたのです。

そこで Renovate 運用の負荷軽減に注目が集まりました。特にリリースノートの確認と影響調査の作業を AI で自動化できれば、チームにとって以下のようなプラスの効果が期待できると考えました。
- Renovate PR の影響調査にかかっていた時間が削減され、メイン業務に集中できる
- Renovate タスクに取り組むハードルが下がる。結果として Renovate タスクを溜め込まなくなり、ビッグバンリリースを避けられる
こうした背景から、Claude Code GitHub Actions を使った Renovate PR の自動レビューを試してみました。
Renovate PR を Claude Code GitHub Actions で自動レビューする
Claude Code GitHub Actions の公式サイトはこちらです。
ひとことで言えば Claude を GitHub 上で実行できる仕組みです。Issue や PR に @claude とメンションして指示を出したり、GitHub 上のトリガーに従って Claude を実行したりできるようになります。
本家 Anthropic API 以外にも Amazon Bedrock など Claude をモデルとして提供しているベンダーを利用できます。
これを使って Renovate の PR 作成をトリガーとして Claude Code GitHub Actions を実行し、変更内容を自動でレビューさせる仕組みを作りました。

まずは Renovate の PR 作成をトリガーにしたいので、 on.pull_request の labeled を条件にします。open, reopen でも良いと思います。
on: pull_request: types: [labeled]
そして renovate というラベルの場合のみ処理を継続するようにします。
jobs: renovate-review: if: github.event.label.name == 'renovate'
続いて Claude Code GitHub Actions のコアである anthropic/claude-code-action を実行します。
Cybozu では Claude Code GitHub Actions の統制兼活用促進のため、Reusable Workflow として呼び出せるように生産性向上チームが仕組みを整えてくれています。社内の開発チームはその Workflow を呼び出すだけで簡単に Claude Code GitHub Actions を使い始めることができる状況でした。
kintone 生成 AI チームもプロンプトを渡すだけですぐに使い始めることができました。
uses: <org>/claude-code-action-workflow/.github/workflows/claude-code-action.yaml@v2 with: prompt:
▶︎プロンプトはこちら
<context>
あなたは Renovate が作成した依存関係更新 PR をレビューするエージェントです。
PR ブランチは既にチェックアウト済みです。
リポジトリ: ${{ inputs.repo-name }}
PR 番号: ${{ inputs.pr-number }}
</context>
<task>
この Renovate PR を分析し、依存関係更新の影響をレポートとして PR にコメントしてください。
</task>
<instructions>
以下の手順に従って実行してください。
1. PR 情報を取得
gh pr view ${{ inputs.pr-number }} --json title,body,files,additions,deletions,commits
2. 変更内容を特定
- 依存関係のバージョン差分を確認(例: mypy 1.18.1 → 1.19.0)
- PR body の Release Notes があれば内容を確認
- 必要に応じて WebFetch を使って詳細情報を検索
3. コードベースでの使用箇所を調査
- 該当ライブラリがこのリポジトリでどのように使われているか調査
4. 更新の影響を分析
- 破壊的変更の有無
- パフォーマンスへの影響
- セキュリティへの影響
- その他の潜在的な問題
5. レポートを作成
- Breaking Changes がある場合: 影響を受ける利用パターンをコード例で示す
- 影響の根拠: 実際のコードを引用して説明
- /tmp/renovate-analysis-report.md に Write を使ってレポート内容を書き込む
6. PR にコメントを投稿
- gh pr comment ${{ inputs.pr-number }} --body-file /tmp/renovate-analysis-report.md を使ってコメントを投稿
</instructions>
<output_format>
レポートは以下の形式で作成してください。読みやすさを重視し、必要に応じて絵文字や項目を追加してください。
# Renovate PR Analysis Report
## 📦 更新内容
(更新されたパッケージとバージョン差分)
## 📋 リリースノートのサマリー
(主要な変更点の要約。Release Notes がない場合は「リリースノートは提供されていません」)
## 🔍 影響分析
### 影響1. (タイトル)
- **内容**: (影響の説明)
- **根拠**: (このリポジトリのコードベースでの該当ライブラリの使用箇所を引用し、具体的な理由を説明)
- **リスクレベル**: 低/中/高
(追加の影響がある場合は同様の形式で記載)
## ✅ 必要なアクション
(必要なアクション。なければ「特になし」)
---
This analysis was generated by renovate-agent. [The prompt](https://github.com/<org>/<repository>/blob/main/.github/workflows/renovate-auto-review.yaml)
</output_format>
<constraints>
- PR が既にレビュー済みの場合でも新しくコメントをすること
- 推測ではなく、実際のコードと Release Notes に基づいて分析すること
</constraints>
最後に、この仕組みにより自動レビューされた Renovate PR の例を紹介します。

自動レビューではリリースノートの要約と影響範囲のコードを提示するように指示しています。これにより開発者がレビュー時に情報を照らし合わせる手間が削減され、効率的にレビューを進められるようになりました。
コストについては、利用するモデル次第ではありますが現在は 1 PR あたり約 $0.3 ほどで運用できており、十分に許容できる範囲内です。
終わりに
Renovate の運用を Claude Code GitHub Actions で効率化した事例を紹介しました。
定量的な効果測定はまだこれからですが、レビュー時の負担が軽くなった実感があり、コストも低いので導入のハードルが低く、試してみて良かったと思います。
We are hiring!!
kintone 生成 AI チームで一緒に活動するメンバーを募集中です!
kintone 生成 AI チームは開発業務はもちろんのこと、今回のような探求・改善活動も大切にしています。他にも Claude Code Plugin Marketplace の整備や LLM-as-a-Judge の検証など、様々な活動を行なっています。
変化の激しい AI 分野で新しい技術を継続的にキャッチアップし、開発や運用改善に組み込んでいく自立した活動を行っているチームです。もし興味がありましたら、カジュアル面談やご応募をお待ちしています!