(Programming から転送)
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2026/01/10 13:23 UTC 版)
|
|
この記事は検証可能な参考文献や出典が全く示されていないか、不十分です。 (2017年5月)
|
プログラミング(英語: programming)とは、コンピュータのプログラムを作成することである[1]。
通常、プログラムを設計し、それをプログラミング言語によって記述し、期待どおりに動くかテストを行い、誤り(バグ)を発見し、プログラムの修正を行うことまで含めていう[1]。
高水準のプログラミング言語が作られる以前は全て、バイナリ(2進数)の機械語で書いたり、あるいは命令を数文字のアルファベットで表記したニーモニックで書いてそれを手作業でバイナリに変換するということが行われていた。現在では機械語やニーモニックでプログラミングが行われることは減ったが、ハードウェア寄りの部分(そして性能に大きく影響するきわめて重要な部分)では機械語やニーモニックでプログラミングが行われている[注釈 1]。
プログラミング関連のタスクを、アルゴリズムの作成、アルゴリズムの正確さやリソースの消費量の評価、選択したプログラミング言語でのアルゴリズムの実装などと捉える方法がある(これは一般にコーディング(英語:coding)と呼ばれる)[2][3]。
ハードウェア開発と対比してソフトウェア開発とも呼ばれる。
プログラミング関連の作業には、テスト、デバッグ、ソースコードのメンテナンス、ビルドシステムの構築、生成されたアーティファクト(機械語コードなど)の管理などがある。これらの作業も広義のプログラミングの一部と考えられる。
プログラミングを行う人をプログラマやソフトウェア開発者という。
1801年に開発されたジャカード織機がプログラマブルな機械の起源とされることが多い。この機械は、穴を開けた一連の厚紙(パンチカードの原型)を使った。穴の配列が布を織る際の
ジャカード織機とパンチカードが広まったことが、計算機を進化させる上で大きなヒントになった。
1830年ごろには、チャールズ・バベッジがパンチカードを使った解析機関を考案した。
Luigi Menabreaの論文の最後には、解析機関の処理のために設計された最初のアルゴリズムについて書かれたエイダ・ラブレスのメモが記載されている。彼女は "史上初のコンピュータプログラマ" と考えられている。
このような先駆者の発明をさらに発展させたのがハーマン・ホレリスであり、1896年にタビュレイティング・マシン・カンパニー(Tabulating Machine Company、後のIBM) を設立した。彼はホレリス式パンチカード、タビュレーティングマシン、キーパンチ機などを発明した。これらの発明が情報処理産業の基礎となったのである。
1906年には、タビュレーティングマシンにプラグボードを追加することで、配線を組み替えて様々な仕事ができるようになった。これがプログラミングへの第一歩となった。1940年代には、プラグボードで配線を変更することで動作を変更できる電子的装置が登場し、初期のコンピュータにもプラグボードで動作を決めるものがあった。
1944年8月にジョン・モークリーとジョン・プレスパー・エッカートが、(当時開発中のENIACの設計を参考にしつつも)新たに高速な遅延記憶装置を使うコンピュータの開発を提案。これは記憶装置を持ちプログラムを記憶できプログラミングが可能なコンピュータで、これが大きな転換点となった。1946年4月に弾道研究所と開発契約が締結され名前はEDVACに決まった。命令語長が44 ビット。命令部(オペコード部)は最初の 4 ビットで、どの操作(加算、減算、乗算など)を実行するかを指定する。残りの 40 ビットはアドレス部で、4つのアドレスを表現するフィールドに割り当てられている(各アドレス 10 ビットずつ)。オペコードの種類としては、基本は加算、減算、乗算、除算、比較、抽出、浮動小数点操作で、ほかにHALT(停止)に割り当てられる未使用命令もあり、最大で16種のオペコードが使える設計で、実際には12種が使われた。EDVACのプログラミングは紙とペンで行われた。紙の上で綿密に命令を設計し、それをバイナリコード(2進数)として記述。入力はそのバイナリコードのパンチカードを作成し読み込ませた。なお、モークリーやエッカートが発明したプログラミング可能なこのアーキテクチャを、そのプロジェクトにコンサルタントとして参加していたフォン・ノイマンがアカデミックな書式の文書にまとめ自分の名(ばかり)を署名して流布させた結果、本当の発明者2人の名が陰に入ってしまい、文書をまとめた人物のほうの名が広まり"ノイマン型" と呼ばれるようになった。
紙とペンを使い2進数機械語のコードを並べて行い、入力方法としては穿孔カードや鑽孔テープが利用された他、スイッチなどで直接入力したが、機械語の命令は0と1が大量に並び、人間には直感的には意味が不明で、かなり扱いづらく、書き写しのミスも発生しがちでストレスが大きい。
なお、EDVACの組み立てがもたつき1951年までかかる間に、EDSACの組み立てがEDVACを追い抜き1949年に完成したが、EDSACではモーリス・ウィルクスらが機械語(バイナリ)の代わりにアルファベットを2~3文字を使い表現することをやり始め、バイナリより理解しやすくなった。これはOrder Codeオーダーコードと呼ばれた。(これがニーモニックやアセンブリ言語の起源となった)
1951年の前半に[注釈 2]ナサニエル・ロチェスター(Nathaniel Rochester)がIBM 701用に、アルファベット数文字で略記した命令の一式を作成し、それを機械語に変換するためのプログラムも作成した。これのおかげで、略語表記の命令と数値やアドレスを並べてコンピュータのプログラミングができるようになった。これがアセンブラの源流であり、ロチェスターは "世界初のアセンブラを設計・実装した人物" とされている。 IBM 701のニーモニックは次のようなものだったとされる。ニーモニック、ニーモニックのもとの英語表現、説明の順に示す。
上はニーモニックの一部。IBM 701は設計上、32種(後期には33種)の機械語命令を持っていたので、ニーモニックも30種前後用意したと言われている。そして何度か改良され、時期により若干異なるとされる。IBM 701のニーモニックの多くが、その後のニーモニックの原型になった。
おおむね次のようなニーモニックが定着することになった。ニーモニック、ニーモニックのもとの英語表現、説明の順に示す。
そして例えば次のように書かれた。
LDA 1000
ADD 1001
STA 1002
ニーモニックによるアセンブリ言語のおかげで、プログラマは、難読ながらも慣れれば一応意味が理解できる形で記述できるようになり、ニーモニックなら編集するのも書き写すのもかなり容易になった。ただし、機械語が異なる新しいコンピュータを開発した場合、最初はアセンブラが存在しないので、アセンブリ言語でプログラミングをしてもコンピュータに入力する直前の段階で、ニーモニック→バイナリの対照表を使って、手作業で紙とペンを使いバイナリへと変換しなければならなかった。
ニーモニックでの開発はバイナリで開発するよりはマシになったものの、まだまだ効率が悪かった。普通の人々が使う数式とはかけ離れた命令を羅列しなければならなく、効率が悪かった。当時、コンピュータで科学技術(物理、工学、核研究など)の計算を大量に行う必要があったが、ニーモニックでのプログラミングは効率が悪く、人件費や開発期間が膨大で、プログラマのストレスも大きかった。IBMのエンジニアたちは、「もっと人間にとって分かりやすい効率的な言語が必要だ」「普段使っている数式(formula)で命令を書きたい」「人間が普段使う言葉(英単語)で命令を記述したい」と考えるようになった。そして1957年にIBMのジョン・バッカス(John Backus)率いるチームによりFORTRANが開発された。FORTRANの名称は「FORmula TRANslation」(" 数式 翻訳 ")の略で、この名称に彼らの最大の目的がはっきりと表明されている。FORTRANが作られた主要な目的は下記のようなものだった。
それにより同時に次のことも実現する。
FORTRANではたとえばA, B, Cという3つの数の平均を求める式は次のように書けるようになった。
REAL A, B, C, AVG
A = 5.0
B = 7.2
C = 9.5
AVG = (A + B + C) / 3.0
「(A + B + C) / 3.0」と普通の数式で記述できることが革命的だった。 FORTRANでは変数の型名に続けて変数名を書けば変数を宣言できるようになった。REALは実数を意味する英単語で、「REAL A, B, C, AVG」と書けば実数型の変数 A, B, C, AVG 計4つの宣言。[注釈 3] 変数に値を入れることは、=(イコール)で表現し、右辺の計算結果の値を左辺の変数に入れる命令と定めた。[注釈 4]
1978年にリリースされたFORTRAN 77ではIF文が導入され、if...then ○○○(もし....なら○○○せよ)と、ますます英語風に書けるようになった。たとえば任意の数を入力させ正、負、ゼロを判定するプログラムは次のように書ける。
REAL X
PRINT *, 'Enter a number:'
READ *, X
IF (X > 0.0) THEN
PRINT *, 'The number is positive.'
ELSE IF (X < 0.0) THEN
PRINT *, 'The number is negative.'
ELSE
PRINT *, 'The number is zero.'
END IF
FORTRANの初版が1957年にリリースされた数年後の1959年ころには、アメリカ国防総省やCODASYL(コーダシル)が主導する形で会計計算を得意とするCOBOLが開発され、その後もさまざまな言語が開発されてゆくことになった。FORTRANのプログラムの記述(あるいは「ソース」)はコンパイラと呼ばれる特別なプログラムで機械語に変換されるが、プログラムの入力は依然としてパンチカードやさん孔テープで行われていた。
1960年代後半、記憶装置や端末の価格が低下してきたことにより、キーボードから直接コンピュータにプログラムを入力できるようになってきた。また同じ頃、コンピュータによる処理対象のデータとしての文書についてもコンピュータを利用して編集されるようになり[注釈 6]最初はラインエディタ、続いてスクリーンエディタといった、テキストエディタが開発され、それらによってソースコードがコンピュータ上で編集されるようになった。
ところで1958年のLISPの初期版や1964年のBASICなど、インタープリタ方式で、つまりコンパイラを使わず対話方式でプログラミングし即実行できる言語も増えていった。
初期のマイクロコンピュータ(パーソナルコンピュータ)、マイクロプロセッサをCPUとして使い個人でも所有できるようになったばかりのコンピュータの場合、1974年に登場したAltair 8800は最初は、(アセンブラすらなかったので)Intel 8080の機械語でプログラミングし、つまり紙とペンでニーモニック(アセンブリ言語)を書いて、それをニーモニック→機械語(バイナリコード)の対照表を使って自分の目と手で変換(ハンド・アセンブル)し、端末やテープリーダ(大型コンピュータの中古品)を接続して入力した。基本セットではインタフェースカードすらなく端末も接続できず、前面パネルのトグルスイッチのオン/オフで2進数を入力してプログラミングしなければならなかった。翌年にはオプションでアセンブラやAltair BASICが用意され、アセンブリ言語やBASICでプログラミングできるようになった。
1976年のApple Iはかなり安価なのに最初からキーボードやテレビが接続できそれらで入出力できたことが画期的で、はじめユーザはウォズニアックが書いたモニタプログラムを使い、MOS 6502の機械語のプログラムを16進数で1バイトづつRAMに書き込んで使っていたが、1976~77年ころにはウォズニアックが書いたInteger BASICがリリースされBASICで対話方式でプログラミングしカセットテープのレコーダをデータレコーダとして使いプログラムを保存できるようになった。日本で1970年代後半にNECから発売されたTK-80では8080互換CPUの機械語で、TK-80 BS/COMPではBASICで、MZ-80でもZ80の機械語やBASIC[注釈 7]でプログラミングしプログラムをデータレコーダに保存した。1970年代のマイクロコンピュータは、機械語やBASICでプログラミングすることが主流だった。
こうして目的ごとに、あるいは大型コンピュータやマイクロコンピュータなどコンピュータの種類ごとに、さまざまな工夫をほどこされたコンピュータ言語が多数開発され、コンピュータ言語の種類は数十、数百、数千と増えてゆき、それぞれの路線で発展していった。ひとつの路線は、より抽象化されたプログラミングを可能にする言語であった。抽象化レベルの高い言語はオーバーヘッドも大きいが、コンピュータのハードウェア性能の向上の速度も大きかったので、多少オーバーヘッドが増えても同等あるいはむしろ高性能な動作が実現された。このような抽象化レベルの高い言語の利点は、習得が容易であることと、プログラム作成時間が短縮されること。プログラムというのは、プログラミングに数日や数ヶ月を要するのに、その実行は数分や数時間でしかない、というものが多い。つまり抽象度の高い言語のおかげで、一番ボトルネックになっているプログラミング作業の時間(人による作業時間)を減らし、人件費を減らすことができた。そして、バッファオーバフローなどの危険性を孕んだプログラムを書くことを防止できるようにもなった。一方、プログラムがコンパクトであることやコンピュータのハードウェア寄りの作業(メモリアドレスを指定して直接的にRAMにアクセスし操作することなど)が求められる分野では高水準言語の中では最も機械語寄りのC言語が好まれ、高速な3D描画が求められる分野ではC++がメイン、プログラミングの入門教育の分野では1970年代や80年代にはBASICが好まれ、2000年代には(速度は速くないのだが)タブによる段組みを使いカッコの多用を回避して記述が直感的に分かりやすいPythonやRubyが好まれるなど、分野ごとに使い分けがされている。
まず、そのプログラムの目的、さらには「本当に解決したい問題は何なのか」ということについて十分な検討が必要である(ワインバーグの著書などを参考のこと)。プログラミングの過程は文書化され、将来の拡張に利用できるため、これは非常に重要なことである[5]。
続いて、全体のスタイルをおおまかに2つに分けると「トップダウン設計」と「ボトムアップ実装」[6]になる。「なんとかの設計と実装」といったようなタイトルの本が多くあるように、どちらも重要だが、一般に対象についてよくわかっているものについてのプログラミングでは前者のスタイル、よくわかっていない場合は後者のスタイルとする。「設計された通りに実装することは不可能」といった場合に開発体勢の問題などから正しい対処がされないまま、設計と実装がちぐはぐになったプロダクトは悲惨である。また反復型開発では、あまりに大きなプログラムを一方通行のプロセスで書くことは最初から避けるものとされる。
目的のプログラムを書き始める前に、まずテストを書く、というスタイルもある(これを、「テストファースト」という。詳しくは、テスト駆動開発を参照)。あるいは対象が有限オートマトンやプロセス計算など、形式手法的な方法でモデル化できるのであれば、まずはそのようにすべきである(本来はモデル主導というのはそのような意味のはずである)。
最初の段階として、トップダウン設計では軽量プログラミング言語や、非形式的な記述が適している場合には擬似言語(擬似コード)などで全体設計を検討する。ボトムアップ実装では、階層構造の「葉」にあたるサブルーチンの実装を検討する[注釈 8]。なお、流れ図(フローチャート)はコンピュータの黎明期である1940年代後半に、当時のプログラムは機械語[注釈 9]で読むのも書くのも難しかったことから、補助のために使われその当時には有用性が高く(en:Herman Goldstine#The First Draftに当時の流れ図がある)、MIXという機械語を使っている教科書『The Art of Computer Programming』などでは使われているが、現代のプログラミング言語でも有用と信じられていることもあるようである。
プログラミングの過程で、ソースコードを記述することを特に指してコーディングという。元々は機械語が符号であること、またはアセンブリ言語のニモニックがまるで暗号みたいである(正確には「コード」は暗号の1分類。コード (暗号) を参照)というところからコンピュータプログラムに「コード」という語が使われ、それを書く作業というきわめて限定された意味の語[注釈 10]だったが、近年はHTMLを書くという意味にも使われるなど濫用され気味である(なお、デモシーンでは機械語のテクニックを駆使して高効率のプログラムを書く、というような本来の意味に近い意味で使われている)。
可能な限り避けたいものではあるが、プログラムにはバグ (bug) の混入が避けられない。場合によっては仕様にバグがあることもある(もっとひどい場合には標準規格のようなものでもバグがある)。デバッグ (debug) とはバグを取る作業であり、プログラミングの過程に必要なものとして見積りなどでは含めておかなければならない[注釈 11]。
一旦の完成の後も、ある程度の期間使われるプログラムでは、使用しているうちに、プログラムの性能や機能に新しい要求が発生したり、プログラムの設定を変更する必要がでてきたり、テストにより発見できなかったバグが見つかることがある。このような事態に対応するため、プログラムを保守していく作業が必要になる。
プログラミングをする人をプログラマという。プログラミングを行うには一般に、コンピュータ科学を中心としたプログラミングそれ自体についての能力や知識と、書こうとするプログラムが対象とする問題領域などについての能力や知識の両方が必要である。
この他、プログラムが、作者以外の人によって利用される場合には、プログラムの利用方法や機能について質問を受けることがある。プログラムを、意図したとおり稼働させてゆくためには、これらの問い合わせに対応する必要もある。
一般に、職業としてプログラミングを行う場合、これらの作業が工程として含まれる。大規模なプログラミングでは、これらの作業を分業することも多い。
このような業務は、ソフトウェア工学という学問のソフトウェア開発工程の分野として扱われる。
20世紀後半を通して、先進国ではプログラマが魅力的な職業の1つとされたが、1995年以降にインターネットが爆発的に普及すると、インドなど発展途上国でありながら数字やプログラミングに強く安い賃金で働く人々を、インターネット経由でプログラミングに利用する傾向が強まり、先進国のプログラマにとっては、仕事でインドの労働力と競争しなければならなくなり、給料が上がりづらい状況になった。さらに2020年代にchatGPTが登場し、高速にプログラミングを行ってくれるようになった。
人工知能によるプログラミングが発達すれば、プログラミング・スキルは不要になると誤解している人もいるかもしれないが、2023年の体系的な文献分析によれば、人工知能の台頭後は、プログラミング・スキルはむしろそれ以上に重要になる[7]、という希望的な分析も2023年にはあった。
だが、2025年にはすでに、(chatGPT登場の前と比較して)新卒を対象としたテック系の求人は25%減少したというデータが現れ始めている[8]。つまり、入社数ヶ月から数年程度のスキルでできるような簡単な水準のプログラミングは生成AIにまかせてタダで済ませれば会社としては利益が大きくなるのでそうして、経験10年以上など長い経験が必要なプログラミングだけは経験豊富な人にまかせる、という分化が起きている。[注釈 12]
プログラミング言語が異なれば、プログラミングのスタイル(プログラミングパラダイム)も異なる。どの言語を使うかの判断には、企業としてのポリシー、その用途への適合性、サードパーティーのパッケージが使えるか、個人の好みなど様々な要素がある。理想的には、用途に最も適した言語を選ぶべきである[9]。しかし、その言語を使えるプログラマが十分揃えられないとか、その言語の処理系に問題があるとか、実行時の効率が悪いといった問題から、最適な言語を選べないこともある。
アレン・ダウニー (Allen Downey) は、著書『計算機科学者のように考える方法』(How To Think Like A Computer Scientist) で次のように書いている。
言語が違えば、詳細も違って見えるが、どんな言語にも次のような基本的命令要素がある。
- 入力: キーボード、ファイル、その他の機器からデータを入手する。
- 出力: 画面にデータを表示したり、ファイルその他の機器にデータを送る。
- 演算: 加減算のような基本的算術操作を行う。
- 条件付き実行: 条件をチェックして、一連の処理を行うか否かを判断する。
- 繰り返し: ある処理を繰り返し実行する。通常、毎回何かが変化している。 — Allen B.Downey、How to Think Like a Computer Scientist§What is a program?
今日までに、プログラミングの進歩に貢献したパラダイムとして、次があげられる:
プログラミングには、文字による言語で記述する方法ばかりではなく、視覚言語や図形言語で記述する方法であるビジュアルプログラミングという方法もある。
1990年代から2020年ころのプログラミング[注釈 13]
| ソフトウェア開発工程 |
|---|
| 中心となる活動 |
| パラダイムとモデル |
| ソフトウェア開発方法論とフレームワーク |
|
| 開発支援 |
| プラクティス |
| プログラミングツール |
| 標準と機関 |
|
| 用語集 |
|
| |
ソフトウェア開発手法がどうであれ、最終的にはプログラムは基本的な属性を満たさなければならない。プログラミングにおいてそれを気にかけておくことで、デバッグやその後の開発およびユーザーサポートにかかる時間とコストを削減できる。ソフトウェア品質を確保する方法は様々だが、以下の5つの属性が最も重要である。
ソフトウェア開発の第一段階は要求分析であり、その後モデル化し、実装し、デバッグする。これら作業については様々な方法論がある。要求分析で一般的な方法論としてユースケース分析がある。
モデル化技法としてはオブジェクト指向分析設計 (OOAD) とモデル駆動型アーキテクチャ(MDA)がある。統一モデリング言語 (UML) は OOAD や MDA での記法として使われている。
データベース設計では、似たような技法として実体関連モデルがある。
実装技法としては様々なプログラミングパラダイムがある(オブジェクト指向プログラミング、手続き型プログラミング、関数型プログラミング、論理プログラミングなど)。
デバッグには統合開発環境 (IDE) が使われることが多い(Visual Studio、NetBeans、Eclipseなど)。独立したデバッガ(gdbなど)も使われている。
利用状況は分野ごとに異なる。
プログラミング言語はそれぞれ得意とする分野があり、例えばCOBOLは大企業の基幹システム(データセンター)で昔も今も使われ続けており、FORTRANは科学技術計算に強く、C言語はコンパクトなプログラムを作成しやすいので組み込み機器市場で強く、C++は高速かつオブジェクト志向プログラミングが可能なのでゲーム業界で主要な言語で、Pythonは(動作は遅いが)そのライブラリのおかげで大規模言語モデル(LLM)を使う人工知能の分野で強い。
言語の利用量を測定する適切な方法が無いので、しかたなく代わりの測定手段として、求人広告に挙げられている言語を数え上げる方法が、無いわけではない[10]。また、既存のソースコードの行数を言語毎に推計する方法もある(ただし、言語によって同じ機能を実現するのに必要な行数が異なるため、補正が必要)。COBOLは若い人には"古い言語"と思われているが、分野を横断してプログラミングの仕事の量(や受注金額)を見ると、若い人の"イメージ"(思い込み)に反して、実際にはCOBOLの仕事が あなどれないほど多いのが、ソフトウェア開発業界の実際である。
バグだらけのプログラムは使いものにならないため、デバッグは重要である。C言語やアセンブリ言語などは、慣れたプログラマであっても、バッファオーバーランや不正なポインタやメモリの初期化忘れ/解放忘れといったバグを作りこみやすい。バッファオーバーランは隣接するメモリ領域を破壊し、全く関係ない箇所でプログラムに異常が発生する原因となる。このため、C言語やC++でのプログラミング向けに Valgrind、Purify、BoundsChecker といったメモリデバッガが開発されてきた。
Java、C#、PHP、Python といった言語にはそのような問題がほとんどないが、性能は低い。ただし、データベースアクセスやファイル入出力が性能を決定付けるような分野では、これらの言語の性能でも何ら問題ない。また、最近ではこれらの言語の処理系でも性能が向上してきている。
2023年にはコードが自動生成できるような状況になり、プログラミングエンジニアの役割は変わりつつあるが[11]、現時点ではコード自動生成の商用・学術利用には著作権上の課題がある[12]。 → #プログラミングレス
生成AIの自動生成によるプログラミングは、セキュリティとデバッグに大きな課題をもたらす。
プログラミング学習では、従来のプログラミング教育に比べて、Scratchに似たプログラミング教育ソフト「Alice」が非常に効果的で、プログラミングの習熟度向上との相関は0.54[13]。
プログラムを書くことはアートなのか、クラフトなのか、工学なのかという議論がある[14][15]。よいプログラミングには、それら3つの要素すべてが必要とされ、最終的に効率的で保守しやすいソフトウェアを生み出すことを目的とする(何が効率的で、何が保守しやすいかという判断も様々である)。「プログラムを書くことは設計をすること」という意見もある[16]。
現代においてはアプリケーションソフトウェアを使うだけでもコンピュータの利活用の幅がおおいにある。理屈としては、ドメイン固有言語のうち、チューリング完全でないようなものは汎用の言語ではないから、それらを使ったコンピュータの利活用も「プログラミングレス」と言えなくもない。また、GUIによる設定やドラッグ&ドロップでアプリケーションが開発できることなどを指して、(2010年代後半では)プログラミングレス、あるいは、ノンプログラミングということもあった[17]。その後、"ノーコード開発"ともいうようになった。
2022年11月にはChatGPTが登場。これはGPTの大規模言語モデル(LLM)に既存のプログラムを大量に学習させてあり、人は自然言語で希望・要望(プログラムの要件、使うプログラミング言語)を伝えるだけでプログラムを書いてくれ、ユーザはそれをコピペするだけでプログラムが作成できるようになった。速度がとてつもなく速く、人間がプログラミングするのに数時間や数日ほど要していたプログラムをChatGPTはわずか数秒〜数分ほどで書き、プログラミングの仕事に大変革が起きた(ソフトウェア開発業界に激震が走った)。それ以降、コーディングのできる生成AIが続々と発表・公開された(AnthropicのClaude、Claude Code、マイクロソフトのGitHub Copilot、GoogleのGemini 等々等々)。