
こんにちは。ユーザベースでアナリストとしてレポート執筆をしている堀籠です。
アナリスト業務でも、生成AIはここ1~2年で欠かせないツールになってきています。企業や業界の下調査、フレームワークに沿った分析など、ハルシネーションには常に注意しながらもレポート執筆の様々な場面で使用しています。
その中で、最近は、ある変化に気づくようになりました。それは、AIの能力が上がるにつれて、人間の役割が変わってきているということです。
この記事では、業務でのAI活用と、趣味で行っているゲーム開発でのAI活用の両方を通じて、この1年で自分とAIの役割分担がどう変わったかを振り返ります。
業務におけるAI活用の壁
私の業務では、複数の企業の動向調査や、業界分析、3Cなどのフレームワークに沿った分析を日常的に行っています。こうした作業において生成AIは非常に強力で、初期的な調査やまとめを素早くこなしてくれます。
しかし、使い込むほどに一つの壁が見えてきました。それは、「自分が求める形式・品質で出力してもらうためには、そのコンテキストを毎回プロンプトとして伝え直す必要がある」ということです。
例えば、「この業界について、こういう論点で、こういう形式でまとめてほしい」という期待がある場合、その期待をコンテキストとしてプロンプトに落とし込まなければ、出力は安定しません。結果として、プロンプトはどんどん長文になり、「プロンプトの型」を毎回コピー&ペーストして入力するという作業が発生するようになりました。
AIの処理自体は速く、疲れ知らずで24時間働き続けてくれます。一方で、人間がプロンプトの型をコピーして生成AIに入力し、結果を保存するという手作業が、一連のフローをスケールさせるうえでのボトルネックになっていました。
この問題は、スプレッドシートとGoogle Apps Script(GAS)を使ったLLMへのAPI連携の仕組みを開発したことで解決しました。あらかじめプロンプトの型をスプレッドシートの指定列に入力しておき、GASがそのプロンプトを順番に生成AIのAPIへ送信し、出力を隣の列に記録してくれる(例えば、A列に調査対象、B列にプロンプトテンプレート、C列に出力結果を指定し、1行目から〇行目まで順にAPI経由で生成AIに入出力を行う)。このシンプルな仕組みによって、人間がコピー&ペーストを繰り返すというボトルネックは解消され、同じ品質、形式で安定した出力を大量に生成することが可能となり、先日行われた、社内コンテストでは大賞をいただくことができました。
仕組み化で見えた「次の壁」
ボトルネックが解消され、大量の調査・分析を効率的に回せるようになった結果、今度はAIが出力した生成物の品質と向き合う時間が増えました。
ぱっと見ると、文章としてきれいにまとまっている。しかし、よく読むと問題が見つかります。情報が羅列されているだけで示唆がない。記載されている数字がそもそも間違っている。情報の出所が信頼できるソースとは言いがたい。こうした問題は、出力を一つひとつ丁寧に読み込まなければ見抜けません。
速く大量の文章を出力できるようになった。でも、その品質を判断するのは依然として人間の仕事です。
ただ、ここで一つの疑問が湧いてきました。今は人間が品質をチェックしている。でも、LLMの性能は数か月単位で目に見えて上がっています。この品質チェックという役割も、いずれAIができるようになるかもしれない。そうなったとき、人間は何をするのか。
この疑問に正面から向き合うには、最新のAIの進化を肌で感じられる場所が必要でした。業務では、新しいLLMモデルや機能を試すことに対して、どうしてもハードルが生じます。セキュリティ面の懸念、出力品質が安定するかどうかの不安、そして業務時間を使って成果が出るかわからないことを試すよりも、既存業務を優先すべきという判断が働きます。
趣味のゲーム開発という「実験場」
私は2024年ころから趣味でゲーム開発をしています。趣味であれば、新しいモデルや機能をどんどん試せますし、たとえ問題が発生しても、自分が開発したゲームがリリースできなくなる程度のリスクに抑えられます。
もう一つ重要なのは、趣味であっても「実際にゲームをリリースする」という明確な目的があることです。この目的があるからこそ、新しいLLMモデルの能力評価について、少し触っただけで「すごい!」で終わるのではなく、能力の限界を見極めるまで使い込むインセンティブが生まれます。
そして、このゲーム開発を1年以上続けた結果、業務で感じていた疑問に対する一つの実感が得られました。
1年で変わった人間の役割
2024年にゲーム開発を始めた当時、AIの性能はまだ十分ではありませんでした。サンプルコードをもとに部分的な機能を開発し、機能間の接続は自分で調整する必要がありました。作りたい機能があっても、そのサンプルコードが入手できなかったり、そもそも実現方法を思いつけなかったりすれば、その機能は諦めるしかありませんでした。機能をまたがって発生するバグへの対処も困難で、開発期間は1本あたり数か月に及んでいました。
2025年末には状況が一変しました。生成AIがGitHub経由で複数のコードを読み込み、仕様書をもとに機能をまたいだ開発を自動で行えるようになりました。結果、2026年1月に開発したゲームでは、仕様策定と機能開発に20時間、バグ修正やゲーム内容の調整に10時間。合計約30時間で1本のゲームが完成しました。
わずか1年で、開発における私の役割は大きく変化しました。個々の機能開発をよりAIに任せるようになり、自分はゲーム全体の機能管理や仕様検討を行うようになりました。人間の組織に例えるなら、プレイングマネージャーからマネージャーになった感覚かもしれません。結果、個々の機能がどのように実現されているかは、もはや把握しきれなくなりました。
生成AIが登場した当時、その役割は「コパイロット(副操縦士)」と呼ばれていました。今では、あくまで趣味レベルですが、私のゲーム開発においてはAIはメインパイロットになっています。
ただし、メインパイロットといっても完璧ではありません。稀に明らかに誤ったプログラム変更をしてくることがあります。バグを直そうとして別のバグを生み、そのバグを直そうとしてさらに別のバグを生む。そういうループにはまることもあります。「この変更はなんか変だぞ」「今のやり方ではうまくいかなさそうだ」と察知し、フィードバックする。品質のチェックとともに、良い方向性で開発をしているかを嗅ぎ分ける力がより求められるようになっています。
それでも「面白いゲーム」は作れない
今では、いわゆるVibeコーディングで1行もコードを書かなくても、ゲームは作れるようになりました。でも、面白いゲームが作れるとは限りません。
自分が作ったゲームをプレイしても、ワクワクしない。なぜ面白くないのか、その理由が自分でもよく分からない。「面白いゲーム」というものを言語化するセンスがないということなのかもしれません。あるいは、AIからその知見を引き出す方法が、素人の自分には分からないだけなのかもしれません。
これは業務にも通じる話です。いくらAIが調査やまとめを素早く完了しても、「ユーザーにとって価値がある内容」を定義し、それが実現できているかを見極めるのは人間です。出力の速度や量ではなく、その提供価値を創りきる力がより求められていると感じています。
AI時代の人間の役割とは何か
この1年を振り返ると、AI時代に人間に求められる役割が3つ見えてきました。
1つ目は、仕組みを作る力です。AIの能力を最大限に引き出すためには、プロンプトの設計やAPIとの連携など、AIを効率的に動かす仕組みが必要です。AIの能力そのものではなく、人間の関わり方がボトルネックになることは少なくありません。
2つ目は、品質を嗅ぎ分ける力です。AIの出力はぱっと見て整っていることが多い。しかし、示唆のない文章、間違った数字、信頼性の低い情報ソースは、注意深く読まなければ見抜けません。ゲーム開発でも、AIが生成したコードが一見動いているように見えて、実は穴だらけということがあります。「何かがおかしい」と感じ取る力がより求められています。
3つ目は、価値を定義し創りきる力です。技術的に作れることと、それが面白い・価値があることは別の話です。AIが高速で大量に出力できるようになった今、提供価値を考え、ユーザーにとって意味があるものを創りきることの重要性は、むしろ増しています。その手段は、AIの出力を見極めることかもしれないし、あえて自分の手で創ることかもしれません。
LLMの性能は数か月単位で大きく変わります。上記の3つの役割も数か月後には変わっているかもしれません。LLMの性能を常にキャッチアップし、何が得意で何が苦手かを把握し、人間の役割を再定義し続けることが、AIと人間の役割分担を見直し続けるうえで必要です。そして、そのキャッチアップを最も効率的に行えるのは、実際に何かを創り、リリースするという目的を持ってAIを使い倒すことだと、私は考えています。
おわりに
これからも趣味のゲーム開発では、常に最新のLLMを限界まで使い込むことを遠慮なくしていくつもりです。そこで得た知見を業務に還元する、この良いサイクルを回し続ければと考えています。
読んでいただき、ありがとうございました。