これまで、OpenAI、Anthropic、Googleといったメジャーどころの生成AIモデルやサービスの動向を追ってきましたが、IBM関連の技術も追っているため、2025年のIBMのAI戦略と技術動向についてもまとめてみようと思います。
IBMのAI関連サービスは「watsonx」というブランド名で統一されていますが、如何せん日本語の情報が少なく、エンジニア視点での解説記事もあまり見かけないため、私自身の理解を深める意味も込めて整理してみた次第です。
はじめに
2025年のIBMは、生成AIの活用フェーズが「チャット」から「エージェント(実行)」へ明確にシフトした1年になっていたように感じます。
私は現在、大学院ではAIの研究を中心に開発をしていますが、その他でも個人でも開発をしています。そしてIBM Championとしてコミュニティ活動をしています。今年はどうなるかわかりませんけどね🤔そうした多角的な視点でIBMの今年の動きを見てみると、企業としては「LLM単体の性能競争」から「AIエージェントを組み立て、動かすための道具箱(ツールチェーン)の整備」に方向を変えたといえるでしょう。
この記事では、2025年にリリースされた主要な機能やサービスについて、ビジネス的な話は抜きにして、我々エンジニアにとって何が便利になったのかという視点でまとめています。
合っているかは自分の英語能力に依存しますので、もし間違いがあれば教えてください🙇
AIが「話すだけ」から「仕事をする」存在へ
今年の技術系イベント(ThinkやTechXchange)で繰り返されたキーワードは「Agentic AI(エージェント指向AI)」のではないでしょうか。言い換えるならば、「人間が指示した通りに文章を生成するAI」から、「複数のAIが連携して、ツールを使いこなし、タスクを行うAI」への進化といえるでしょう。
LLMモデルはエッジで動く「軽さ」に注目か?
小型モデルGranite 4.0 Tinyがアツい?
5月に発表されたGranite 4.0シリーズの中で、個人的に一番刺さったのが軽量モデルのTinyです。Nano / Micro / Tiny といったラインナップがあり、メモリ効率と推論速度に特化した設計になっています。
これの何が良いかというと、Raspberry Piなどのエッジデバイスや、ローカルPC環境でもサクサク動く可能性がある点です。
私は普段プログラミング教育やIoT開発に関わっていますが、「ネットに繋がないと動かないAI」ではなく、「現場のデバイス内で完結するAI」が現実的になってきたのは非常に意味深いです。現在でも、Node-REDのフローにLLMを組み込んだ演習をしていますが、このようなTinyなモデルを組み込んで、センサー値の判断をさせる……なんて使い方も現実的になりそうでワクワクします🤩
Granite 4.0 Tinyは、現時点では Granite-4.0-Tiny-Previewとして公開されているプレビュー版で、HuggingFaceでもモデルカードが公開されています。本番リリースに向けて引き続き学習・チューニングが進んでいるフェーズってところですかね。
他社モデルも「普通に」使えるように
watsonx.aiの中で、AnthropicのClaudeなど、IBM以外のモデルもシームレスに呼べるようになってきています。
エンジニアとしては「IBMのプラットフォームを使う=IBMのモデルしか使えない」というベンダーロックインが厳しいのですが、そこが解消されつつあるという方向になってきています。「用途に合わせて一番賢いモデルを選べる」という当たり前の環境が整ったのは嬉しいアップデートです。特にビジネス面では大きく影響しそうですね。
エージェントを「作る」ためのツール群の登場
watsonx Orchestrate と ADK(Agent Development Kit)
これまで「業務自動化ツール」という印象が強かったwatsonx Orchestrateですが、2025年は「AIエージェントの司令塔」としての機能が大幅に強化されました。
特に注目すべきは、外部連携用のSDKであるAgent Development Kit (ADK)の提供です。
実は、このADKを使ったハンズオン資料を作成してみた(まだ、作成途中で公開できていない🥲🥲🥲)のですが、Pythonを使ってかなり直感的にエージェントを定義できました。これまではGUIポチポチでしか作れなかった部分が、我々エンジニアが慣れ親しんだコードベース(Python)で制御できるようになり、かつMCP(Model Context Protocol)のような標準仕様との親和性も高まっています。既存のPythonコード資源が活用できるのも熱いですよね🤩
「公式ドキュメントがまだ少し読みづらい…」という課題はありますが、実際に手を動かしてみると、既存のAPIをラップしてエージェント化する流れはスムーズな印象でした。詳細な仕様については公式ドキュメントでの確認をおすすめしますが、触ってみる価値は十分にありそうです。
ノーコードツール「Agent Builder」
一方で、コードを書かずにエージェントを作れる「Agent Builder」も強化されています。HR・セールス・調達など主要ドメイン向けに多数のプリビルトエージェントがカタログ提供されるようになりました。
大学でプログラミング初学者に教えている身としては、こういった「仕組みを理解するためにサクッと作れるツール」の進化も重要です。教育現場でのAI活用のハードルが下がりますし、プロトタイピング用途としても優秀ですね。
AIファーストIDEProject Bob
今一番熱いのは、やはり開発者向けのAI統合IDEでしょう。年末にむけて使用が開始できるようになったProject Bobはかなり注目されています。AIを前提に設計された次世代のIDE(統合開発環境)で、AnthropicのClaudeやMetaのLlama、Mistralなど複数のLLMをネイティブに統合しているそうです。
コード生成・テスト・リファクタリング・セキュリティチェックまで、開発ライフサイクル全体を支援するとのこと。従来の「コード補完アシスタント」を超えて、開発者の"ペアプログラマ"として寄り添う存在を目指しているようです。
個人的には、年末に使用が開始できたのでファーストインプレッション的な記事を書いてみましたが、かなりいい印象のツールだと感じました。AIを活用した開発支援ツールとして、今後の進化が楽しみです。

参考
RAGの「前処理」を楽にするデータ基盤
watsonx.data と RAG構築
RAG(検索拡張生成)をやる際、一番面倒なのが「PDFやパワポなどの非構造化データを、AIが理解できる形に整形する(チャンキングやメタデータ付与)」作業です。
新機能のwatsonx.data integrationは、このパイプラインをGUIで組めるツールです。単にデータを格納してベクトルインデックス化するだけでなく、ファイルからのメタデータ抽出や内容に基づくカテゴリ分類、そのコンテキスト情報をリレーショナル形式で保持しつつセマンティック検索にも活用できる点が特徴です。
ナレッジグラフやGraphRAGを用いた情報構造化の研究をしていますが、「ただテキストをベクトル化するだけでなく、意味的な繋がり(メタデータ)を持たせる」というアプローチは、回答精度を上げるための本質的な部分です。
この面倒な前処理を一貫して行えるツールが出てきたことで、RAG開発の敷居はかなり下がったと感じます。
おわりに
2025年を振り返ると、IBMは「すごいAIモデル」を作る競争から一歩引き(引いていないのかもしれないけど🙄)、「エンジニアがAIを使ってアプリケーションを作るための足場」を固めることに集中したようにも見えます。 私個人からすると、Pythonでガリガリ書けるADKや、エッジで遊べるGranite Tinyなど、手を動かすエンジニアにとって刺激的な材料が増えました点が良かったです。 2026年以降も、この流れが続くのか、あるいは新たな展開があるのか、引き続き注目していきたいと思います。