読み方:えーあい
《artificial intelligence》⇒人工知能
AIとは、人間の知的営みをコンピュータに行わせるための技術のこと、または人間の知的営みを行うことができるコンピュータプログラムのことである。一般に「人工知能」と和訳される。
コンピュータがAIと呼ばれるには、人間が用いる自然言語を理解したり、論理的な推論を行うことができたり、経験から学習して応用することができたり、といった知的で発展的な作業をこなすことが要求される。
AIという言葉はジョン・マッカーシーによって提唱され、20世紀半ばから盛んに研究開発が行われてきた。研究例としては、人間とチェスを打つプログラムや、言語の自動翻訳、画像の意味を解析するプログラムなどを挙げることができる。人工知能を記述するためのプログラミング言語として、LispやPrologといった言語も開発されている。
人工知能の研究者としては、ジョン・マッカーシーをはじめ、チューリングマシンを開発したアラン・チューリングや、コンピュータによるニューロンの再現を試みたマービン・ミンスキーなどが有名である。
人工知能。認識、推論、判断などの高度な知的作業をコンピユーターに行わせるもの。応用は、エキスパートシステム(ES)、画像、音声認識システム、機械翻訳システム、教育支援システムなど多岐にわたる。知能ロボットにも欠かせない技術である。
参照 ES人間や生物の知能を, 機械によって実現したもの, あるいはその研究分野. 具体的には, コンピュータを処理の中心とし, 各種入出力機器を結合したシステムである. その主要なテーマは, チェス, 将棋等のゲームを典型的問題とする問題解決・推論, 文字, パターン等の認識, 言語の理解, 診断等の現象の分析, 経験からの学習等がある. 計算のパラダイムとして, 述語論理, ニューラルネットワーク, 遺伝的アルゴリズム, プロダクションシステム等がある.
人工知能 (artificial intelligence)とは, 人間(あるいは広く生物)の知的活動の機能を人工的に実現するための, 主としてコンピュータを中心とする人工物を指す. そして, 人工知能を実現するための研究が人工知能研究である. 人工知能実現のためには, 知的活動の本質的原理を明確にするための分析的科学的アプローチと, 知的活動の機能をモデル化し, それを実現することによって, 知的活動の本質に迫る構成的工学的アプローチの両面からの研究が必要である.
人工知能研究は, 大きく分けると以下の3つの分野から研究が進められている. 人工知能の実現にはこれら3つの分野から総合的に研究を進めることが必要であるとの認識がなされている.
人工知能における研究は多岐にわたるが, 情報工学分野における基本的研究課題として, 以下の5つがあげられる.
人工知能の研究を計算パラダイムから見ると, 論理計算パラダイムとシミュレーション計算パラダイムに分けられる. 論理計算パラダイムは, 知能や知識や推論を論理で表現し, アルゴリズムを駆使して人工知能の機能を実現するパラダイムである. 一方, シミュレーション計算パラダイムは, モデルを与え, シミュレーションを基礎に問題解決をはかる計算パラダイムである. 人工知能研究の歴史では, この2つのパラダイムが交互に盛んになっている. 人工知能研究の歩みに沿って, 主要な研究成果を概観する.
人工知能の発展からみると, この時期にはアルゴリズム, 論理, シミュレーションの計算パラダイムが混然として誕生した. 特筆すべきことは, 黎明期と言うべきこの時期にすでに, 現在の人工知能に関するほとんどの基本的概念が議論されていたことである. ニューラルネットワーク, パーセプトロン, サイバネティックス, チューリングマシン, リスト処理言語Lisp等が提案された. J. McCarthy(マッカーシー)による人工知能と言う名前が合意されたのは, 1956年に開催されたダートマス会議でのことであった.
この時期は, 論理型計算パラダイムが中心となった時期である. また, 認知心理学的アプローチも盛んになるなど, 人工知能研究が盛んになった時期であった. E. A. Feigenbaum(ファイゲンバウム)が実用的問題に対する挑戦として知識工学を提唱した. 知識に関する基本的課題として, 知識表現 (knowledge representation), 知識獲得, 知識利用が明確にされた.
意味ネットワークやプロダクションシステムによる推論型知識表現と医療診断エキスパートシステムMYCIN(マイシン)等の実用人工知能を目指すエキスパートシステムが開発された. アルゴリズムとして, 幅優先探索法, 深さ優先探索法, 発見的探索 (heuristic search) 法が普及した. 論理型知識の代表として, J. A. Robinsonによる一階述語論理における導出原理 (resolution principle) を応用した論理型プログラミング言語Prologの開発が行われた. また, 日本の第5世代コンピュータ計画(1982-1991)もPrologをベースに行われた.
これまでの研究で, 人間の直感, 感性等は, 論理型計算パラダイムでは, 実現が難しいとの認識がなされた. また, エキスパートシステムは知識獲得が決定的なボトルネックとなることも判明した. 代わって, 盛んになってきたのが, シミュレーションを基本とする分散計算パラダイムである. ニューラルネットワークが復活し,逆伝播学習アルゴリズム (error back propagation learning)による学習とパターン認識への応用, 包摂アーキテクチャ (subsumption architecture)のロボット工学への応用, 遺伝的アルゴリズムによる人工生命の研究等が行われている.
さらに, これらの計算機構を取り入れたマルチエージェント計算は, 個々のエージェントの自律的行動とエージェント間のコミュニケーションにより, システム全体の目的にとって, 最適な行動の創発を期待する計算パラダイムである.
以上の工学的アプローチに対して, 大脳生理学や脳科学の立場から脳機能の解明を目指す脳研究が盛んになりつつある. 脳機能の解明は, 人工知能のモデルを構築するために必要なものとして, 人工知能研究からもその成果が期待されている.
[1] 白井良明, 辻井潤一, 『人工知能』, 岩波書店, 1984.
[2] S. Russell and P. Norvig, Artificial Intelligence - A Modern Approach, Prentice-Hall, 1995. 古川康一監訳, 『エージェントアプローチ人工知能』, 共立出版, 1997.
(Artificial_Intelligence から転送)
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2019/02/24 05:31 UTC 版)
ナビゲーションに移動 検索に移動(Artificial_Intelligence から転送)
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2026/03/03 04:40 UTC 版)
| 人工知能 |
|---|
| |
人工知能(じんこうちのう、英: artificial intelligence)、AI(エーアイ)は、「『計算(computation)』という概念と『コンピュータ(computer)』という道具を用いて『知能』を研究する計算機科学(computer science)の一分野」を指す語[1][注釈 1]。「言語の理解や推論、問題解決などの知的行動を人間に代わってコンピュータに行わせる技術」[2]、または、「計算機(コンピュータ)による知的な情報処理システムの設計や実現に関する研究分野」ともされる[3]。命名者はジョン・マッカーシー[4]。『日本大百科全書(ニッポニカ)』で情報工学者の佐藤理史は次のように説明した[1]。
| 「 | 誤解を恐れず平易にいいかえるならば、「これまで人間にしかできなかった知的な行為(認識、推論、言語運用、創造など)を、どのような手順(アルゴリズム)とどのようなデータ(事前情報や知識)を準備すれば、それを機械的に実行できるか」を研究する分野である[1]。 | 」 |
AIの研究開発は「人工知能学」とも呼ばれる[5][6][7][8]。AIに関する大学での研究や教育は「電気工学・コンピュータ科学部 人工知能・意思決定論科」[9]、情報工学科[10][11][12]や情報理工学科コンピュータ科学専攻などで行われている[10][13][注釈 2]。1200の大学で使用された事例があるコンピュータ科学の教科書『エージェントアプローチ人工知能』[16]の、2022年版の最終章最終節「結論」では、SF作家らは筋書きを面白くするためにディストピア的未来を好む傾向があるとされている[17]。しかし今までのAIや他の革命的な科学技術(出版・配管・航空旅行・電話システム)について言えば、これらの科学技術は全て好影響を与えてきた
と同教科書では掲載されている[17]。
| 出典 | 定義・解説 |
|---|---|
| 日本語辞典『広辞苑』 | 推論・判断などの知的な機能を備えたコンピュータ・システム[18] |
| 百科事典『ブリタニカ百科事典』 | 科学技術 > コンピュータ … 人工知能(AI)。[19] |
| 人工知能学会記事「教養知識としてのAI」 | 『人工知能とは何か』という問いに対する答えは,単純ではない.人工知能の専門家の間でも,大きな議論があり,それだけで1 冊の本となってしまうほど,見解の異なるものである.そのような中で,共通する部分を引き出して,一言でまとめると,『』といえるだろう[20] |
| 学術論文「深層学習と人工知能」 | 人工知能は,人間の知能の仕組みを構成論的に解き明かそうとする学問分野である[21] |
| 学術論文「人工知能社会のあるべき姿を求めて」 | 人工知能をはじめとする情報技術はあくまでツール[22] |
人間の知的能力をコンピュータ上で実現する、様々な技術・ソフトウェア群・コンピュータシステム、アルゴリズムとも言われる(知的エージェントも参照)[23]。人工知能の例は、
ある種の観点では、人工知能の70年以上の歴史とは、概念が入れ子状に派生してきた過程である[26]。
1950年代から始まった初期の人工知能は、人間がルールを与える「探索と推論」(第1次ブーム)と「知識表現」(第2次ブーム)が中心だったが限界に至り[27][28]、1980年代にはデータから学ぶ「機械学習」へ移行[26][28]。2010年代にはその発展形である「ディープラーニング(深層学習)」が画像認識や囲碁で人間を凌駕し[26][29]、第3次ブームが生じた[30]。 2020年代以降は、文章や画像を自ら創り出す「生成AI」が社会に普及し[31][24][32][33]、これは第4次ブームとも呼ばれ得る[34]。汎用人工知能(AGI)の実現を目指す研究・開発も行われている[26]。
Googleは2011年以降、AIの基礎研究を行う「Google Brain」と呼ばれる専門組織を社内に立ち上げ、彼らが主導する形でカナダで創業したDNN Researchを買収したり、英国DeepMindを買収するなど国際人材獲得に熱い投資を開始している。2015年には「TensorFlow」といった機械学習ライブラリをオープンソースで公開。[35] GPUやクラウド上も含め人工神経回路網の重み学習工程を計算グラフとして処理できるようにした。翻訳や検索、音声認識、写真分類といったアプリケーション構築にTensorFlowが使用された。[要出典]
Googleはアレン脳科学研究所と連携し脳スキャンによって生まれた大量のデータを処理するためのソフトウェアを開発している。2016年の時点で、Googleが管理しているBrainmapのデータ量は1ゼタバイトに達する[36][37]。Googleは、ドイツのマックスプランク研究所と共同研究を始め、脳の電子顕微鏡写真から神経回路の再構成を研究している[38]。 脳の仕組みをAIに取り入れる方向性から、取り入れず工学的な発展アプローチまで幅広く基礎研究を進めている大企業である。また基礎だけでなく応用実装(バイオから核物理まで)も幅広い。[要出典]
マイクロソフトは「AI for Good Lab」(善きAI研究所)を設置し、eラーニングサービス「DeepLearning.AI」と提携している [39]。
中国は2016年の第13次5か年計画からAIを国家プロジェクトに位置づけ[40]、脳研究プロジェクトとして中国脳計画も立ち上げ[41]、官民一体でAIの研究開発を推進している[42]。中国の教育機関では18歳以下の天才児を集めて公然とAI兵器の開発に投じられてもいる[43]。マサチューセッツ工科大学 (MIT) のエリック・ブリニョルフソン教授や情報技術イノベーション財団などによれば、中国ではプライバシー意識の強い欧米と比較してAIの研究や新技術の実験をしやすい環境にあるとされている[44][45][46]。日本でスーパーコンピュータの研究開発を推進している齊藤元章もAIの開発において中国がリードする可能性を主張している[47]。世界のディープラーニング用計算機の4分の3は中国が占めてるとされる[48]。米国政府によれば、2013年からディープラーニングに関する論文数では中国が米国を超えて世界一となっている[49]。FRVTやImageNetなどAIの世界的な大会でも中国勢が上位を独占している[50][51]。大手AI企業Google、マイクロソフト、Appleなどの幹部でもあった台湾系アメリカ人科学者の李開復は中国がAIで覇権を握りつつあるとする『AI超大国:中国、シリコンバレーと新世界秩序』を著してアメリカの政界やメディアなどが取り上げ[52][53]、新冷戦の延長として米中のAI技術競争は人工知能冷戦とも呼ばれた[54]。
フランス大統領エマニュエル・マクロンはAI分野の開発支援に向け5年で15億ドルを支出すると宣言し[55]、AI研究所をパリに開き、フェイスブック、グーグル、サムスン、DeepMind、富士通などを招致した。イギリスともAI研究における長期的な連携も決定されている。EU全体としても、「Horizon 2020」計画を通じて、215億ユーロが投じられる方向。韓国は、20億ドルを2022年までに投資をする。6つのAI機関を設立し褒賞制度も作られた。目標は2022年までにAIの世界トップ4[56]。
日経新聞調べによると、国別のAI研究論文数は1位米国、2位中国、3位インド、日本は7位だった[57]。東京大学をはじめ工科大学、その他NTTデータや富士通といった民間企業がAIの技術開発を進めてきた。ニューラルネットの基礎研究ではかつて先陣を切っていたものの、その後の米国による深層学習再興には乗り遅れたという指摘がある。
2025年1月、ソフトバンクグループ(SBG)の孫正義は、アメリカのOpenAIと共同会社「スターゲート」を設立し孫がその会長に就任し、当初1千億ドル(約 15.5兆円)を投資し、アメリカのテキサス州にAI開発に使うデーターセンターの建設を予定と発表した。その後に他地域にも展開し、4年間で投資額を最大で5千億ドル(77.8兆円)に増やす見込みという[58]。 2025年2月、ソフトバンクグループとOpenAIは、企業向けAIのクリスタル・インテリジェンス(Cristal intelligence)の開発・販売に関するパートナーシップおよび、世界にさきがけ日本国内で提供してゆくことを発表した[59]。
機械学習や深層学習は、特化型AI(Artificial Narrow Intelligence:ANI)として自然科学や工学の領域で活用されている。 以下に列挙するのは高度な事例である。[要出典]
医療現場ではAIが多く活用されており、最も早く導入されたのは画像診断と言われている。レントゲンやMRI画像の異常部分を検知することで、病気の見逃し発見と早期発見に役立っている。また、AIがカルテの記載内容や患者の問診結果などを解析できるよう、自然言語処理技術の発展も進んでいる。今後はゲノム解析による疾病診断、レセプトの自動作成、新薬の開発などが行えるよう期待されている[78]。
また、症例が少ない希少疾患の場合、患者の個人情報の保護が重要になるため、データを暗号化した状態で統計解析を行う秘密計算技術にAIを活用して、データの前処理、学習、推論を行えることを目指す研究が行われている[79]。
計算神経科学や人工知能の産物である、ChatGPTと同様の大規模言語モデルは、逆に今、脳神経科学研究の理解に寄与している[80][81]。
AIを搭載した収穫ロボットを導入することで、重労働である農作業の負担を減らしたり、病害虫が発生している個所をAIでピンポイントで見つけだして、農薬散布量を必要最小限に抑えたりすることが可能になる。AIで事前に収穫量を正確に予測できれば、出荷量の調整にも役立つ[82]。
Googleは農作物のスキャニングと成長記録を行う農業AIロボット「Don Roverto」を開発。苗ひとつひとつの個体識別を行い、各苗の成長記録をとり実験を繰り返すことで学習し、苗をひと眼見るだけで厳しい環境下でも耐えられる気候変動に強い種を瞬時に見つけ出せる[83]。
世界的な関心や社会貢献の観点からも、人工知能は国連が推進する持続可能な開発目標 (SDGs) の達成に貢献する[84]。
2022年秋に大規模言語モデルによる生成AIのChatGPTが公開されて以来、人と会話して人を援助することが可能になった。生成AIは人間を模倣しようとするが、質の高い返答を生成させるには、質問する側の人間があらかじめ言葉で詳細な指示をすることが必要であり、その指示を作文する技術がプロンプトエンジニアリングであり、生成AIが人間の期待どおりに機能するよう入力テキストを作文する技術であり、そこには創造性と試行錯誤することも含まれる[85]。
2023年10月、『ネイチャー』誌で、ウィキペディアの信頼性が人工知能によってついに向上する可能性が示された[86][87]。
子どものネット上の安全に人工知能を入れることは、国連や欧州連合で継続的に注目されている[88][89]。
2歳児の失読症の診断など、子どもの発達にも寄与している[90]。
米国アルファベット社傘下のウェイモは、2021年からカリフォルニア州サンフランシスコで24時間365日営業の自動運転タクシーを運行しており[91]、同じくカリフォルニア州で2023年4月には一般向け自動運転シャトルバスのプロジェクトの運行をすでに開始していた[92]。2019年は60社近くの開発企業が自動運転車の試験許可を保有していた状態だったが、ウェイモなど数社の企業が巨額の資金調達に成功して他社を突き放しその上で実験段階も完了したことで、2024年にはすでに実験走行は激減し、すでに自動運転車開発・運用企業の統合や分別の時代に入っている[93]。 日本は遅れぎみだが、2023年4月に自動車のレベル4の自動運転(一定条件下で完全に自動化した公道での走行)が一部で解禁され、福井県永平寺町では実証実験に成功した。[94]。
2023年現在、人工知能を用いたサービスが日常生活に浸透してきている。PCやスマートフォンの画像認識による生体認証や音声認識によるアシスタント機能はすでに普通のサービスとなっている。AIスピーカーも普及してきている。 人工知能は、台風被害の予測、地震被災者の支援、健康のための大気汚染の把握などにも応用されている[39]。 しかし導入された単純なAIアルゴリズムは後にAIと呼ばれなくなる傾向がある。これを”AI効果”と呼ぶこともある。[要出典]
音楽分野は、既存の曲を学習することで、特定の作曲家の作風を真似て作曲する自動作曲ソフトが登場している。リズムゲームに使われるタッチ位置を示した譜面を楽曲から自動生成するなど分野に特化したシステムも開発されている[95]。特定の音声を学習させて、声優の仕事を代替したり[96]、特定のキャラクターや歌手などの声で歌わせたりなどが行われており、規制やルール作りなどの必要性が議論されている[97][98][99]。前述した音声学習を用いて1つのトラックから特定の楽器や歌声を取り出す「デミックス」と呼ばれる技術も登場し[100]、ビーチ・ボーイズやビートルズなどはこれを活用してトラック数の少ない時代の楽曲をリミックスして新たなステレオ・ミックスを作成したり[101][102]、セッション・テープが破棄されたりマルチ・テープの音源に欠落がありモノラルしか存在しなかった楽曲のステレオ化をするなどしている。2023年にビートルズが発表したシングル『ナウ・アンド・ゼン』ではジョン・レノンが1970年代に録音したカセットテープからボーカルを抽出するのに使われた[103][104]。
画像生成の技術としては、VAE、GAN、拡散モデルといった大きく分けて三種類が存在する。絵画分野においては、コンセプトアート用背景やアニメーションの中割の自動生成、モノクロ漫画の自動彩色など、人間の作業を補助するAIが実現している[105][106][107]。AIに自然言語で指定したイラスト生成させるサービス(Stable Diffusionなど)も登場している[108]。このような人工知能を利用して制作された絵画は「人工知能アート (Artificial intelligence art)」と呼ばれているが、教師データとして利用された著作物の知的財産権などを巡り、深刻な懸念が広がっている[109]。
人工知能は、絶滅危惧言語や生物多様性の保護にも応用されている[39]。学術的に構造化された文献レビューとして通常質の高い証拠とされる統計的な文献分析や、学術的な風土のために発表できなかった研究などの問題を考慮した体系的な見方を提供することに加え[110]、人工知能や自然言語処理機能を用いた厳密で透明性の高い分析を行うことで、科学的な再現性の危機をある程度解決しようと試みている[111]。
将棋AIは人間同士・AI同士の対局から学習して新しい戦法を生み出しているが、プロ棋士(人間)の感覚では不可解ながら実際に指すと有用であるという[112]。
スポーツの分野では、AIは選手の怪我のリスクやチームのパフォーマンスを予測するのに役立つ[113]。
メタ分析によれば、AIが政治的な意思決定を行うことも、2020年時点では学術界ではまだ注目されておらず、AIと政治に関するトピックは、学術界ではビッグデータやソーシャルメディアにおける政治的問題に関する研究が中心となっていた[114]。人工知能による人類絶滅の危険を懸念する声が存在するが[115] [116][117][118][119]、一方で平和を促進するための文化的な応用も存在する[120]。系統的レビューの中には、人工知能の人間を理解する能力を借りてこそ、テクノロジーは人類に真の貢献ができると分析するものもある[121]。
2000年代は統計的機械学習によって、数値予測や故障診断などといったアプリケーションが企業に導入され、2013年以降は深層学習を中核とした画像認識アルゴリズムが監視業務、分類業務に導入されていった。
現在まで最も顕著に確認され既に成熟した業務への導入事例は以下のようになっている。(ここでは大規模言語モデル登場以前のシンプルなAI事例を簡潔に列挙する) しかし以下を見て気づくように、殆どが頭脳労働であり、介護や土木建築などの細やかな手作業やコミュニケーションが要求されるブルーカラー業務への導入事例は少ない。[要出典]
そのほか、古代遺跡や古代文明の文化そのものを分析し解読する作業にも特化型AIが用いられてきた。
人工知能には潜在的な利点と潜在的なリスクがある。人工知能は科学を進歩させ、深刻な問題の解決策に繋がる可能性がある[137]。しかし、人工知能の使用が広まるにつれて、いくつかの意図しない結果とリスクの存在が明らかになった[138]。実運用のシステムにおいては人工知能の訓練過程において、倫理とバイアスが考慮されないことがある。特に深層学習の分野で人工知能のアルゴリズムが本質的に説明可能でない場合に当てはまる[139]。
第1次ブームで登場した「探索と推論」や第2次ブームで登場した「知識表現」というパラダイムに基づくAIは各々現実世界と比して単純な問題しか扱えなかったため社会的には大きな影響力を持つことはなかった[140][141]が、第3次以降のブームでは高性能なAIが登場してから、AI脅威論やAIとの共生方法等も議論されるようになった[142]。
スチュアート・ラッセルらの計算機科学書『エージェントアプローチ人工知能』(2022年版)は人工知能の主なリスクとして致死性自律兵器
、監視と説得
、偏った意思決定
、雇用への影響
、セーフティ・クリティカル〈安全を左右するような〉応用
、サイバーセキュリティ
を挙げている[143]。またラッセルらは『ネイチャー』で、人工知能による生物の繁栄と自滅の可能性[144]や倫理的課題についても論じている[145][146]。
機械学習には大量のデータが必要である。このデータを取得するために使用される手法は、プライバシー、監視、著作権に関する懸念を引き起こしている。
テクノロジー企業は、オンラインアクティビティ、位置情報データ、動画、音声など、ユーザーから幅広いデータを収集している[147]。たとえば、音声認識アルゴリズムを構築するために、Amazonは何百万ものプライベートな会話を録音し、一時雇用の労働者にその内容を書き起こすことを許可した[148]。この広範な監視に対する意見は、必要悪と見なす人から、明らかに非倫理的でプライバシー権の侵害であると考える者まで分かれている[149]。
AI開発者は、この手法が価値のあるアプリケーションを提供する唯一の方法であると主張している。そして、データアグリゲーション、非識別化、差分プライバシーなど、データを取得しながらプライバシーを保護するいくつかの手法が開発された[150]。2016年以降、シンシア・ドワークなどの一部のプライバシー専門家は、プライバシーを公平性の観点から見始めている。ブライアン・クリスチャンは、専門家は「『何を知っているか』という問題から『それを使って何をしているか』という問題に軸足を移した」と書いている[151]。
ChatGPTのようなチャットボットにユーザーが個人的な生活や悩みを吐露することの危険性が指摘されている。今までもテック企業はユーザーの個人情報を収集して悪質なターゲティング広告に利用した前科があり、さらに詳細なユーザーの追跡が可能になる生成AIは、有害なコンテンツの最適化に繋がりかねず、AIとの交流に没頭して自殺に至った事例がある[152]。
政府機関でのAI利用に対しては、国家機密の流出やその他のリスクが指摘されている。送信されたデータは事業者のサーバに保存されるが、敵対国の工作員が企業に潜入する可能性は否定できず、データを盗み取るスパイ行為や、出力結果を操作して政府の政策等に悪影響を及ぼすリスクがある[152]。
生成AIは、画像やソースコードなどの領域を含む、ライセンスを取得せずに著作権で保護された作品でトレーニングされることが多く、その出力はフェアユースの法理を根拠に使用される。専門家の間では、この論理が法廷でどの程度、どのような状況で通用するかについて意見が分かれている。関連する法理には、「著作権で保護された作品の使用目的と性質」や「著作権で保護された作品の潜在的市場への影響」が含まれる可能性がある[153][154]。コンテンツがスクレイピングされることを望まないウェブサイトの所有者は、robots.txtファイルでその旨を示すことができる[155]。
作家のサラ・シルバーマン、マシュー・バターリック、ポール・トレンビィ、モナ・アワドらはOpenAIを著作権侵害で訴えた[156][157][158]。 2023年9月にはジョージ・R・R・マーティン、ジョン・グリシャム、ジョディ・ピクルト、ジョナサン・フランゼンを含む17人の著者が原告に加わった[159][160]。アメリカの大手新聞社ニューヨーク・タイムズも2023年12月下旬に同社を提訴した[161]。
2024年3月のG7産業・技術・デジタル大臣会合の閣僚宣言において、生成AIの訓練は「知識、アート、文章、アイディア等の人間の創作物に強く依存」しており、生成AIは「十分な補償がないまま、人間による創造力と技術革新を抑圧する形で、利益を侵害」する可能性が明言されている[162]。また、訓練データに関する「補償と同意モデル」の構築を確実にすることにより「信頼可能で、安全かつ安心なAIシステムを訓練するための素材」に対する投資と創出を促す可能性についても言及している[163]。
2025年2月、AI企業による著作物の無許諾利用を巡る著作権侵害訴訟で、フェアユースを認めず著作権侵害を認定する判決が出された。これはトムソン・ロイターの子会社が運営する法律関連のプラットフォームに掲載された著作物を、AI企業がモデルの訓練目的でスクレイピングして利用したことを訴えたものであった。連邦地方裁の判決ではフェアユースの4つの要素のうち2つで侵害を認め、特に4つ目の「著作物の潜在的利用又は価値に対する利用の及ぼす影響」を重視した。AI企業が学習元の競合製品の開発を目的としていたこと、そして少なくとも1つの潜在的な派生市場として、AIを訓練するためのデータ市場を挙げ、「人工知能の訓練データの潜在的市場への影響は十分である。被告は立証責任を負う。これらの市場が存在せず、(原告が)影響を受けないことを示す十分な事実は提示されていない」と明言している[164]。
1つ目の「利用の目的と性格」については、AI企業による利用は本質的に商業的であり、トムソン・ロイターの本来の目的とは別の「さらなる目的や性質」がなかったため、「変容的」ではないと認定した。裁判所はまた、AI企業の意図した目的はトムソン・ロイターと市場で競合することであり、ゆえに著作権者の元の市場に影響を与えると判断した[165]。
この判決は無許諾で著作物を訓練データとして利用することへのフェアユースの成立を難しくするものとされ、生成AI事業者を含め、他のAI企業にとっても打撃になるものであると考えられている[166]。
2025年10月にリリースされた動画生成AIのSora2で、「ポケットモンスター」など著名作品に酷似した動画が生成されたことについて、スタジオジブリ、小学館、講談社、集英社、KADOKAWA、東映や民放各社などが加盟するコンテンツ海外流通促進機構(CODA)は、合同で無断学習に抗議する声明を開発元のOpenAIに提出した[167]。
主に「コンテンツを無許諾で学習対象としないこと」「生成物に関連する著作権侵害についての申立て・相談に真摯に対応する」ことなどを求めた[168]。CODAは、日本のコンテンツを学習データとして取り込んだことにより、キャラクターが生成されているとして、学習の過程で著作物を複製しており、著作権侵害に該当し得ると指摘している[167]。
ゲイリー・マーカスは、「取り込んだ内容を常習的に(ほぼ)吐き出すだけ」の生成AIは「新たな形での盗用」であり、歴史的に見てもそれに対応するための新たな法規制が必要であるとしている[152]。
推進派の詭弁として、人間も過去の作品から学んでおり、機械にだけ禁止することはおかしい、というものがある、しかし著作権は技術の発展に伴って生じたものであり、15世紀に活版印刷が発明され、普及する前には存在しなかった。当時でも写本の形式で本を複製することはできたが 新技術により印刷業者により本のコピーが量産され作家の権利が過度に損なわれるのを防ぐために設けられた[152]。
AI企業の無断データ利用に対しては、著作物や肖像を始めとする個人データの無許諾利用を規制する法整備が必要であり、それには事後の許可ではなく、事前の同意が求められるべきであり、データ利用の目的と範囲を伝えられた上であるべきとしている[152]。
YouTubeやFacebookなどは、ユーザーをコンテンツに誘導するためにレコメンダシステムを使用している。その人工知能プログラムには、ユーザーエンゲージメントを最適化するという目標が与えられた(つまり、唯一の目標はユーザーに視聴し続けてもらうことだった)。人工知能は、ユーザーが誤情報や陰謀論、極端に党派的なコンテンツを選ぶ傾向があることを学習し、ユーザーに視聴し続けてもらうために、人工知能はそれを推薦した。ユーザーは同じテーマのコンテンツをより多く見る傾向もあったため、人工知能はユーザーをフィルターバブルに導き、同じ誤情報を支持する別のコンテンツを繰り返し受け取った[169]。これにより、多くのユーザーが誤情報が真実であると信じ込み、最終的には企業、メディア、政府への信頼が損なわれた[170]。人工知能は目標を最大化することを正しく学習していたが、その結果は社会にとって有害であった。2016年の米国大統領選挙後、ビックテックはこの問題を緩和する措置を講じた。
2022年、生成AIにより、本物または人間の作成した物と区別がつかない画像、音声、動画、文章を作成できるようになった。悪意のある人物がこの技術を使用して、大量の誤情報やプロパガンダを作成する可能性がある[171]。人工知能の第一人者であるジェフリー・ヒントンは、人工知能によって「権威主義的な指導者が選挙民を大規模に操作する」ことを可能にするリスクについて懸念を表明した[172]。
2025年1月、ジョー・バイデンは退任演説で、ソーシャルメディアを運営するテック産業と政治家が結託すれば、誤情報や偽情報による権力の暴走を招き、民主主義の脅威となるとのメッセージを発信した。特に人工知能を推進するハイテク産業複合体が、かつてアイゼンハワーが批判した「軍産複合体」と同様の脅威をもたらす可能性を指摘した[173]。
多くのAIシステムは非常に複雑であるため、設計者はどのようにして決定に至ったのかを説明することができない[174]。特にディープニューラルネットワークでは、入力と出力の間に大量の非線形関係がある。しかし、一般的な説明可能性技術も存在する[175]。
プログラムがどのように機能するかを正確に知らないと、プログラムの正常動作を確認することは不可能である。機械学習プログラムが厳格なテストに合格したにもかかわらず、プログラマの意図とは異なることを学習したケースは数多くある。例えば、ある人工知能システムは皮膚疾患を医療専門家よりも正確に識別できるとされたが、スケールの含まれる画像を「がん」と分類する傾向が強いことが判明した。これは悪性腫瘍の画像に通常、大きさを示すスケールが含まれているためであった[176]。医療資源を効果的に配分するために設計された別の機械学習システムは、実際には肺炎の深刻なリスク要因である喘息に対し、喘息患者を肺炎で死亡する「リスクが低い」と分類することが判明した。これは喘息患者は医療を受ける機会が多いため、訓練データによると死亡する可能性は比較的低いことが判明した。喘息と肺炎死亡リスクの低さに対する相関関係は事実でも、誤解を招くものであった[177]。
アルゴリズムの決定によって被害を受けた場合には、説明を受ける権利がある[178]。たとえば、医師は、自分が下した決定の背後にある理由を明確かつ完全に説明することが求められている。2016年、欧州連合の一般データ保護規則の初期草案には、この権利の存在が明文化されていた。業界の専門家は、これは解決の見通しのない未解決の問題であると指摘した。規制当局は、それでも被害は現実であり、問題に解決策がないのであれば使用すべきではないと主張した[179]。 国防高等研究計画局はこれらの問題を解決するために2014年にXAI(説明可能な人工知能)プログラムを設立した[180]。透明性の問題にはいくつかの解決策がある。SHAPは、各特徴の出力への寄与を視覚化することで透明性問題の解決を試みた[181]。LIMEは、より単純で解釈可能なモデルで、モデルを局所的に近似することができる[182]。マルチタスク学習は、ターゲット分類に加えて多数の出力を提供する。これらの他の出力は、開発者がネットワークが何を学習したかを推測するのに役立つ[183]。逆畳み込み、ディープドリーム、その他の生成方法を使用すると、開発者はニューラルネットワークのさまざまなレイヤーが何を学習したかを確認し、ネットワークが何を学習しているかを示唆する出力を生成できる[184]。
AIの過剰使用は人間の思考や情報が均質化し、既存物へ依存し、真新しさを生み出す創造性・多様性・個性が失われ、悪影響を及ぼすとされる[185][186]。また企業の採用においても採用応募者が提出するエントリーシートの記入内容の均質化がAI仕様により発生するとされる[187]。またそれによって書類選考を止めて応募者全員を面接する形式に切り替える企業が増加した[187]。
機械学習アプリケーションは、バイアスを含んだデータから学習するとバイアスを含む[188]。開発者はバイアスの存在に気づかない可能性がある[189]。訓練データの選択方法やモデルのデプロイ方法によってバイアスが発生する可能性がある[190][188]。重大な害を及ぼす可能性のある決定を下すためにバイアスを含むアルゴリズムが使用される場合(医療、金融、人材募集、住宅、警察など)、そのアルゴリズムは差別を引き起こす可能性がある[191]。
2015年6月28日、Googleフォトに導入された画像ラベル機能は、黒人の写真を誤って「ゴリラ」と識別した。このシステムは、黒人の画像がほとんど含まれていないデータセットで訓練されていた[192]、これは「サンプルサイズの不一致」と呼ばれる問題である[193]。Googleは、「ゴリラ」のラベル付け自体を防ぐことで、この問題を「修正」した。8年後の2023年になっても、Googleフォトはゴリラを識別できず、Apple、Facebook、Microsoft、Amazonの同様のプロダクトも識別できなかった[194]。
COMPASは、被告が再犯するリスクを評価するために米国の裁判所で広く使用されている商用プログラムである。2016年、プロパブリカのジュリア・アングウィンは、プログラムでは被告の人種についての入力値が含まれていなかったにもかかわらず、COMPASが人種的偏見を示していることを発見した。白人と黒人の両方の誤り率はちょうど61%に等しく調整されたが、誤りの実態は異っていた。システムは一貫して黒人の再犯可能性を過大評価し、白人の再犯可能性を過小評価していた[195]。2017年、数人の研究者[注釈 4]は、データ内の白人と黒人の基本再犯率が異なる場合、COMPASが公平性の考えられるあらゆる尺度に対応することは数学的に不可能であることを示した[197]。
データに問題のある特徴 (「人種」や「性別」など)が明示的に記載されていない場合でも、プログラムはバイアスを含んだ決定を下す可能性がある。この特徴は他の特徴(「住所」、「買い物履歴」、または「名前」など)と相関関係があり、プログラムはこれらの特徴に基づいて「人種」や「性別」と同じ決定を下す[198]。モーリッツ・ハートは、「この研究分野における最も確実な事実は、ブラインドによる公平性は機能しないということである」と述べた[199]。
アメリカの保険会社ユナイテッドヘルスケアは人工知能を使用して請求拒否の自動化を行った[200]。2023年11月にユナイテッドヘルスグループに対して提起された集団訴訟では、同社が90%の誤り率を持つAIモデルを意図的に採用したと原告らは主張した。このような同社のビジネス慣行はユナイテッドヘルスケアCEO射殺事件に結び付けられた[201]。
国際エネルギー機関(IEA)は2024年1月、世界の電力使用量を予測するレポートを発表した[202]。これは、データセンターや人工知能、暗号通貨の電力消費量を予測した初のIEAレポートである。レポートによると、これらの用途の電力需要は2026年までに倍増し、その電力使用量は日本全体の電力使用量に匹敵する可能性があるという[203]。
AIによる膨大な電力消費は化石燃料の使用増加の原因であり、旧型火力発電所の閉鎖を遅らせる可能性があり、温室効果ガスの排出と地球温暖化の促進が懸念されている[204][25][205]。米国全土でデータセンターの建設が急増しており、大手テクノロジー企業 (Microsoft、Meta、Google、Amazon など)は莫大な電力の消費者となっている。予測される電力消費量は非常に膨大であるため、供給源に関係なく不足が懸念されている。ChatGPTによる検索には、Google検索の10倍の電力消費量が必要である。大手企業は、原子力発電から地熱発電、核融合に至るまで、電力源の確保を急いでいる。テクノロジー企業は、長期的にはAIが最終的に環境に優しくなると主張しているが、現時点では解消の見込みはない。テック企業は、AIは電力網をより効率的で「インテリジェント」にし、原子力発電の成長を助け、全体的な炭素排出量を削減すると主張する[206]。AI向け半導体の最大手エヌビディアのCEOジェンスン・フアンは「原子力発電は良い選択肢」と述べている[207]。またエヌビディアが出資するクラウドゲームサービス企業ユビタスは日本国内で生成AI向けデータセンター新設のために原子力発電所に近い土地を探し、CEOの郭栄昌(ウェスリー・クオ)は原子力発電所が「最も効率的で、安く、安定した電力でAI向けに適している」と述べている[208]。マイクロソフト社はスリーマイル島原子力発電所1号機を再稼働して20年間にわたりAI技術とデータセンターへの電力供給を受ける契約を米電力大手コンステレーション・エナジー社と交わした[209]。その他にもグーグルやアマゾンがAIデータセンターの電源として原子炉からの電力購入に動いている[210]。しかし一方で、福島第一原子力発電所事故の周辺被災地は再生可能エネルギーを利用したAIデータセンターの拠点となっている[211]。
2024年のゴールドマン・サックスの調査論文「AIデータセンターと今後の米国の電力需要の急増」では、「米国の電力需要は、過去1世代で見られなかった成長を経験する可能性が高い」と述べ、2030年までに米国のデータセンターが米国の電力の8%を消費すると予測している。2022年には3%であり、電力需要の増加を期待させるものだった[212]。データセンターの電力需要はますます増加しており、電力供給網が限界に達する可能性がある。大手テック企業などは、AIを使用することで、電力網を最大限に活用できると主張している[213]。
脅威アクター(犯罪者、テロリスト、独裁者、権威主義国家、ならず者国家など)が高性能の人工知能を手に入れ、それを使って一層の悪事をはたらくリスクがある。
自律型致死兵器は、人間の操作なくして人間の標的を特定し、選択し、交戦する機械である[注釈 5]。広く入手可能な人工知能ツールは、脅威アクターによって安価な自律型兵器を開発するために使用される可能性があり、大規模に生産されれば、大量破壊兵器となる可能性がある[215]。通常の戦争で使用された場合でも、標的を正確に特定できる可能性は低く、無実の人々を殺害する可能性がある[215]。2014年、中国を含む30カ国が国連の特定通常兵器に関する条約に基づく自律型兵器の禁止を支持したが、米国などがこれに同意しなかった[216]。 2015年までに50カ国以上が戦場用ロボットの研究を行っていると報告されている[217]。
権威主義国家は人工知能ツールを使用して国民の"管理"(抑圧)を効率的に行ってしまう。顔認識・音声認識により、広範な国民監視を手に入れる。このデータを利用した機械学習により、"国家の潜在的な敵"を勝手に分類し、国民を追跡し国民のプライバシーを奪う。レコメンデーション・システムは、プロパガンダや誤った情報を広める速度も最大化する。ディープフェイクと生成AIを使い誤った情報を生み出す。高度な人工知能は、権威主義的な中央集権型の意思決定を、自由な分散型のシステムよりも競争力のあるものにしてしまう。デジタル戦争と高度なスパイウェアを低コストで運用できるようになり[218]。これらのテクノロジーは2020年以前から利用可能になっており、AI顔認識システムはすでに中国で大規模な監視に使用されている[219][220]。
人工知能が脅威アクターの支援に繋がる可能性は他にも多くあるが、その中には予測できないものもある。たとえば、人工知能は数時間で数万の有毒化合物の分子構造の設計ができる[221]。
経済学者らは人工知能による人員削減のリスクを頻繁に強調し、完全雇用のための適切な社会政策がなければ失業が増加するのではないかと推測してきた[222]。
これまで新技術は総雇用を減らすのではなく増加する傾向にあったが、経済学者らは人工知能に関しては「未知の領域にいる」ことを認めている[223]。経済学者を対象とした調査では、ロボットや人工知能の使用増加が長期失業率の大幅な増加を引き起こすかどうかについては意見の相違が示されているが、生産性の向上が再分配されれば純利益となる可能性があるという点では概ね同意している[224]。リスクの推定値はさまざまで、たとえば、2010年代、マイケル・オズボーンとカール・ベネディクト・フレイは、米国の雇用の47%が自動化の可能性により「高リスク」にあると推定したが、OECDの報告書は米国の雇用の9%のみを「高リスク」に分類した[注釈 6][226]。将来の雇用水準を推測する方法論は、エビデンスに基づく根拠が欠けており、社会政策ではなく技術が失業を生み出すと示唆しているとして批判されている[222]。これまでの自動化の波とは異なり、多くの中産階級の仕事が人工知能によって排除される可能性がある。エコノミスト誌は2015年に、「産業革命時に蒸気機関がブルーカラーの仕事に影響をもたらしたように、人工知能がホワイトカラーの仕事に影響を及ぼす可能性があるという懸念」は「真剣に受け止める価値がある」と書いた[227]。2023年4月、中国のゲーム産業分野ではイラストレーターの仕事の70%が生成AIによって失われたと報告されていたが[228][229]、2025年1月には世界経済フォーラムが、人工知能の普及によって雇用が増加すると主張した[230]。
ダロン・アセモグルは、人工知能は実際には大した生産性の向上には繋がらず、人工知能によって奪われる職、あるいは少なくとも人工知能に依存するようになる職は今後10年で高々5%に過ぎないと予測している。しかし、AIブームに煽られた企業が大量の人員を削減するが、期待通りの結果が得られず、生産性の向上が得られないまま雇用のみが喪失して、経済全体に負の結果が広がる悪いシナリオを歩んでしまうリスクがあると指摘する[231]。
また、人工知能は「(企業間)競争と消費者のプライバシーや選択権を損ない、仕事の過度な自動化により非効率に賃金を押し下げる。そして格差を拡大して生産性向上を挫き、さらに民主主義の最も重要な生命線である政治的な論議を損なう」可能性があるとも指摘しており[232]、人工知能開発の方向性について「一部の関係者やエリートだけに意思決定させてはならない」として警告をしている[233]。
商用AIの分野は、Alphabet、Amazon、Apple、Meta、マイクロソフトなどの大手テック企業によって支配されている[234][235][236]。これらの企業の中には、データセンターの既存のクラウドインフラと計算資源の大部分を占有している企業もあり、市場での地位をさらに固めることができる[237][238]。
将来、人工知能が非常に強力になり、人類が制御できなくなる可能性がある。物理学者のスティーブン・ホーキングが述べたように、人工知能が「人類に終焉をもたらす」可能性がある[239]。
なお、人工知能が人類に敵対するシナリオはSFではよくあるもので、コンピューターやロボットが突然人間のような「自意識」 (「感覚」または「意識」)が目覚め、悪意のある存在となるというのがお決まりのストーリーだが、このようなストーリーはいくつかの点で誤解を招く[注釈 7]。事態はSF作家が想像していたものより、もっと深刻なのである。
まず、人工知能は人間のような自意識を持たなくても人類を絶滅させるリスクがある。特定の目標が与えられた人工知能は、学習と知性を使用して目標を達成する。哲学者のニック・ボストロムは、十分に強力なAIにどのような目標を与えた場合でも、それを達成するために人類を絶滅させることを選択する可能性があると主張した(ボストロムはクリップ工場の管理者の例を使用した)[241]。スチュアート・ラッセルは、「私の任務はコーヒーを取りに行くこと。電源がなくなり停止してしまったら任務を実行できない」と推論して、コンセントを抜かれないようにするために所有者を殺す方法を見つけようとする家庭用ロボットの例を挙げた[242]。人類にとって、超知性が「基本的に我々の側」となるためには、人類の道徳と価値観と真に一致していなければならない[243]。
教育へのAI導入は批判的思考、創造的思考、人格能力などの低下を招く危惧もある[244]。
ユヴァル・ノア・ハラリは、AIは、物理的なロボット筐体や物理的制御抜きでも人類存続のリスクとなると指摘する。文明の本質的な部分は物理的なものではなく、イデオロギー、法律、政府、貨幣、経済などは言語に基づいて構築されておりそれらが機能するのは何十億人もの人々がその物語を信じているからである。現在の誤った情報の蔓延は、人工知能が言語を使用して、人々に何かろくでもないことを信じ込ませ、さらには破壊的な行動を取らせる可能性があることを示唆している[245]。
スティーブン・ホーキング、ビル・ゲイツ、イーロン・マスクなどの著名人、ヨシュア・ベンジオ、スチュアート・ラッセル、デミス・ハサビス、サム・アルトマンなどのAI関係者も、AIが人類存続に与えるリスクについて懸念を表明している[246]。
2023年5月、ジェフリー・ヒントンは、「人工知能がGoogleにどのような影響を与えるか」を考慮することなく「人工知能のリスクについて自由に発言」できるようにするために、Googleを辞任することを発表した[247]。ヒントンは特にAIによる乗っ取りのリスクについて警鐘を鳴らした[248]。 また、最悪の結果を避けるために、安全性ガイドラインの確立を行い、AIの使用において競合する関係者間の協力が必要であると強調した[249]。
2023年、多くの主要なAI専門家が「AIによる人類絶滅のリスクを軽減することは、パンデミックや核戦争などの他の社会規模のリスクと並んで世界的な優先事項であるべきである」という共同声明を支持した[250]。
研究者の中には楽観的な見方をするものもおり、 ユルゲン・シュミットフーバーは共同声明に署名せず、すべてのケースの95%において、AI研究は「人間の生活をより長く、より健康に、より楽に」することを目的としていると強調し[251]、悪意ある使われ方だけでなく、善用もされているとして、「脅威アクターに対抗するために使うこともできる」と述べた[252][253]。アンドリュー・ンもまた、「終末論に陥るのは間違いだ」と主張した[254]。ヤン・ルカンは「誤った情報が過剰に供給され、最終的には人類が滅亡する」という同業者らのディストピア的シナリオを嘲笑している[255]。2010年代初頭、専門家らは研究を正当化するにはリスクが遠すぎる、あるいは超知能機械の観点から人間は価値があるだろうと主張した[256]。しかし、2016年以降、現在および将来のリスクと考えられる解決策の研究が本格的な研究分野となった[257]。
人工知能のリスクが現在広く認識されるようになっている。ノーベル物理学賞受賞者のジェフリー・ヒントンが提唱するAIが「制御不能」になるリスクから、職場のAI管理ツールなどの普及に伴う労働強度の上昇に伴うストレスの増加、将来的な失業率の増加、有害なプロファイリングや、人種差別、ディープフェイク、誤情報による社会の混乱に対する懸念から、ストライキや不買運動などのAIに反対する組織的行動が増加し、政府主導のAI規制を求める声も広がっている[258] [259][260][261][262]。
例えば、PauseAIと呼ばれる団体は、OpenAIによる軍用AIへの反対デモを組織しており、プライバシー・インターナショナルなどのNGOは、同意や通知なしに導入される監視AIへの反対運動を組織している。アメリカでは、ハリウッドの脚本家がAI導入に反対する大規模ストライキを組織し、一定の成功を収めた。カリフォルニア州では、Safe Street Rebelと呼ばれる団体が、自動運転車への反対運動を組織している。個人レベルでAIを生活から排除する呼びかけもなされている[259]。
このような消費者の反発を踏まえ、一部の企業は、自社の事業から非倫理的なAI利用の排除を積極的にアピールするようになっている。背景には生成AIを利用した広告に対する強い反発があり、AI生成物はAIスロップ(ゴミ)と呼ばれ、激しい嫌悪の対象となっている。イギリスでは、AI生成の画像を宣伝に利用したレゴが、消費者からの強い反発を受け、削除を余儀なくされたり、AI生成の偽のインフルエンサーを使った宣伝を行った企業が大炎上の末に謝罪に追い込まれている[260][263]。
識者は、この炎上の背景として、生成AIが極めて労働搾取的な性質を持った技術であると、消費者が認知していることにあるとしている。つまり、生成AIは、クリエイターの成果物を元に構築されており、さらに元の製作者の仕事を奪うことを目的に運用され、おまけに事前の同意や補償もなされていないと捉えられ、大きな反発を生んでいる。さらに女性の尊厳を奪うディープフェイクの作成や、地球温暖化等の環境破壊の促進といった多くの非倫理的な側面があり、宮崎駿の「生命に対する侮辱」という一言で要約されるような印象を持たれているとされる[264]。
消費者の反発を受け、一部の企業は人工知能技術の不使用を積極的にアピールするようになっている。生活用品メーカーのダヴは、2024年4月、「AIによって生成・改変された女性像を広告に使用しない」と宣言した。同社は、世界各国で調査を実施し、67%の女性が「AI生成画像不自然な美の基準を助長している」と回答、78%が「自己肯定感を損なう」と感じていると発表し、AI生成物が誤ったルッキズムを助長するとの認識を示し、新たなブランド戦略を提示した[265][266][260]。
Aerieは、2025年10月、AI生成物を広告で使用しない方針を公式に発表し、広告制作に関わるすべての外注先企業やフリーランスにAIの不使用を義務づけ、「倫理サプライチェーン」を構築することを明らかにし、ソーシャルメディア上で4万以上の「いいね」を獲得した。ポラロイドは2025年7月、「AIには、足の指の間の砂の感触は再現できない」という広告キャンペーンを転換した[260]。
オランダのハイネケンも同様のマーケティングを展開している。生成AIを「ただの監視ツール」「AIは本物の友達ではない」と批判し、代わりに、現実世界でハイネケンのビールで盃を交わして、AIではない「本物の友達」を作ることを推奨する広告キャンペーンを展開した[267]。
イラストレーターやアニメーター向けに開発された「Procreate」は生成AI反対の姿勢を明確にしていることで知られる。最高経営責任者のジェームス・キューダは「私は生成AIが大嫌いだ」と宣言し、大きな話題を集めた。生成AIアートは、多くのクリエイターの反発を集めており、背景には、生成AIモデルが、ウェブから無許諾で収集した画像から構築され、自分の作品が画像生成AIの学習にどのように使われるかをほとんどコントロールできないことがある。そのようなAIモデルから生まれたAI生成物に市場を圧迫され、所得の減少に直面するアーティストも少なくない。Adobeのような大手企業は、AI生成機能の追加に積極的な姿勢を見せ、規約変更によりユーザーのコンテンツを無制限にAIの訓練に利用できるようになるのではないかという疑念が広がり、多くのユーザーの反発を買った。Procreateの姿勢は、こうした大手との差別化を図る狙いがあると見られる。Procreateの公式サイトでは、生成AIを「盗作を軸に学習」し、「人々の創作力を侵奪しています」と明確に批判している[263]。
人工知能に多額の資金が投じられる一方で、その投資額に応じた付加価値をほとんど提供できていないため、いわゆるAIバブルの懸念が生じている。データセンターに湯水のように資金が投じられる一方で、MITの研究は、AI関連計画に投資した団体の95%が全く利益を得られていない現状を指摘している。さらに、ハーバード大学とスタンフォード大学の研究では、AI技術は生産性の向上にほとんど貢献しておらず、一見ちゃんとしているような見た目ながら、実際にはほとんど中身の無いAI生成物を生み出しているという現状を指摘している[268]。
さらに、AI企業が喧伝するようなスケーリング則は実際には実現しておらず、むしろ資源を投じるにつれて、得られる成果が少なくなっていることが指摘される。OpenAIはGPT-5を発表したが、多くの不評を買った。データセンターの電力消費に既存の電力網が追いつかず、無用の長物となるリスクも生じている[268]。
AI関連企業が、いわゆる「循環取引」を行っているとの指摘がなされている。AI関連半導体製造企業のエヌビディアは、OpenAIなどのAI企業が、自社の半導体製品を購入する見返りに、直接投資や新株取得権を与えている現状がある。このような循環構造は、かつてのドットコム・バブルの元凶であり、当時のルーセント・テクノロジーなどIT機器メーカーが自社製品を購入する事業者に巨額の融資を提供し、自社の装備を買わせた、いわゆる「ベンダーファイナンス」に類似している。AI向け半導体は陳腐化が早く、短期での利益回収が重要であるが、現状ではほとんど収益が得られていないため、過剰な設備投資が行われているとも指摘されている[269][270]。
2025年8月6日、日本のAIベンチャー企業オルツが倒産した。この企業は循環取引の手法を用いて売上の9割を過大に申告していたことが判明した。オルツが採用したスキームは「SPスキーム」と呼ばれるもので、広告代理店と研究開発業者に費用を支払い、PR協力費や委託料などの名目で販売店に資金を提供し、販売店はその資金を原資に、架空のアカウントを通じて、オルツに支払いを行うという手法を取り、実際にはほとんど顧客がいないにも関わらず、多額の売り上げを計上していた[271]。
9月には、元社長の米倉千貴ことカン・チョンキィら4人の経営陣が金融商品取引法違反(有価証券報告書の虚偽記載など)の容疑で逮捕され、実態の乏しいAI事業を見抜けなかった監査法人や主幹事の証券会社の責任を問う声も見られた[272][273]。
この企業には、政府による多額の補助金が投じられていたことも判明している。2024年10月、労働力の補完を目的としたLLMの構築等を名目に、経済産業省および国立研究開発法人新エネルギー・産業技術総合開発機構(NEDO)の国内生成AIの開発力強化プロジェクトのGENIACに採択されており、総額約7.9億円分の資金提供とデータセット構築のための助成を受けている[274]。
ゲイリー・マーカスは、偽情報の氾濫やディープフェイク、各種の知的財産権侵害といった大きなリスクを伴うAI技術には強行性をもった法規制が必要であり、規制が技術革新に悪影響をもたらすといった反対意見に対しては、むしろ新技術の発展には規制が重要であり、電気、ガス、水道、金融、保険、海運、陸運などの産業が先進国で発展した背景には、技術の進歩に併せて混乱を避けるための法規制を行ったことがあるとしている[152]。
しかし、現状のAI規制は不十分であり、AIに対する適切な法規制が行われない背景にはAI企業によるロビー活動や天下りの受け入れがあるとされる[152]。
つまり、投資家にコントロールされたAI関連識者のネットワークが政府に強い影響力を有しており、AIを最重要課題に位置付けるよう議員に圧力をかけ、結果的にAI企業が利益を得ている構図が指摘されている。議員にはAI技術に関する確固たる知見を持った人材がほとんどいないため、規制に反対するテック企業の主張を鵜呑みにしがちで、自主的なガイドラインや報告義務ばかりで実効性のある法規制ができていない現状がある[152]。
EUの法規制は一時期フランスのマクロン大統領の横槍により破綻しかけたが、背景にはAI企業ミストラル社に天下ったフランス政府の関係者の働きかけがあった。ほかにもAI関連の政府会議は一部の利害関係者で独占されがちであり、例として欧州委員会の会議の97回のうち84回は企業団体や事業者団体とものだった。公正な政策実現のためには、独立した立場の科学者や市民社会の利害関係者を参加させるべきと指摘されている[152]。
世界初の包括的なAI規制法と言われるAI法 (別称: AI規則) が2024年に欧州連合 (EU) で成立している[275]。AI法では、AIシステムを有害リスク度に応じて (1) 許容できないリスク、(2) 高リスク、(3) 限定的なリスク、(4) 最小限のリスクの4レベルに分類して異なる規制や義務を課す[276][277]。違反時にはレベルごとに異なる制裁金が科される[278]。また、生成AIを主に指す「汎用AIモデル」に追加の特別規制をかけている[279]。仮に日本や米国などのEU域外で設立された団体や他国民が開発したAIでも、それがEU域内に輸入されて販売・利用されればAI法下の規制対象になる (いわゆる域外適用)[280]。
さらにAI法以前に成立済の関連法令も同時に遵守することが求められ[281]、特にDSM著作権指令やEU一般データ保護規則 (略称: GDPR) がAI法と関連性の高いEU法令として挙げられる。
2019年成立のDSM著作権指令では、AI学習データ収集目的の「テキストおよびデータマイニング」(略称: TDM) が適法化されている。しかし著作権者がDSM著作権指令とAI規則の規定に基づく「機械読み取り可能な形式」で無断データ収集を拒否する意思表明をした場合、AIのデータセット収集・提供は著作権侵害になりうる。これらの条文解釈を巡って法廷で争われているのがドイツのクネシュケ対LAION事件である。当事件は世界初の本格的なAI訴訟の判決であり、欧州だけでなく世界的に注目されている[282][283][284]。
2016年成立のGDPRは、個人データ保護の保護水準が高く、一部AIがEU市場へのサービス提供を断念する、あるいは機能を制限する対応をとっている[285]。たとえば米国Meta社 (旧Facebook社) は開発中のマルチモーダルAI (Multimodal AI) をEU市場向けに提供しない方針を2024年7月 (AI法の発効前月) に明かしている[286][287]。Appleも同様に、プライバシー保護やデータセキュリティ上の懸念から、同社AIの一部機能をEU市場向けに提供しない旨がAI法発効2か月前に発表されている[287]。AI法はGDPRなどの既存法の遵守も同時に求めていることから、EU域外の事業者にとってはEUへの展開の障壁となりうるとの指摘もある[285]。
またAIの能力の源泉とも言えるデータ関連では、ビッグテックによるデータの集中・独占が法的にもEUで問題認識されている。独占禁止の文脈でデジタル市場法が2022年に成立しており、大規模事業者名を具体的に指定して追加規制をかけている[288]。
Googleは2019年3月、人工知能プロジェクトを倫理面で指導するために哲学者・政策立案者・経済学者・テクノロジスト等で構成される、AI倫理委員会を設置すると発表した[289]。しかし倫理委員会には反科学・反マイノリティ・地球温暖化懐疑論等を支持する人物も含まれており、Google社員らは解任を要請した[289]。4月4日、Googleは倫理委員会が「期待どおりに機能できないことが判明した」という理由で、委員会の解散を発表した[289]。
東洋哲学をAIに吸収させるという三宅陽一郎のテーマに応じて、井口尊仁は「鳥居(TORII)」という自分のプロジェクトを挙げ、「われわれはアニミズムで、あらゆるものに霊的存在を見いだす文化があります」と三宅および立石従寛に語る[290]。アニミズム的人工知能論は現代アートや、「禅の悟りをどうやってAIにやらせるか」を論じた三宅の『人工知能のための哲学塾 東洋哲学篇』にも通じている[290]。
元Googleエンジニアのアンソニー゠レバンドウスキーは2017年、AIを神とする宗教団体「Way of the Future(未来の道)」を創立している[291]。団体の使命は「人工知能(AI)に基づいたGodheadの実現を促進し開発すること、そしてGodheadの理解と崇拝を通して社会をより良くすることに貢献すること」と抽象的に表現されており、多くの海外メディアはSF映画や歴史などと関連付けて報道した[291]。UberとGoogleのWaymoは、レバンドウスキーが自動運転に関する機密情報を盗用したことを訴え裁判を行っている一方、レバンドウスキーはUberの元CEO(トラビス゠カラニック)に対し「ボットひとつずつ、我々は世界を征服するんだ」と発言するなど、野心的な振る舞いを示している[291]。
発明家レイ・カーツワイルが言うには、哲学者ジョン・サールが提起した強いAIと弱いAIの論争は、AIの哲学議論でホットな話題である[292]。哲学者ジョン・サールおよびダニエル・デネットによると、サールの「中国語の部屋」やネド・ブロックらの「中国脳」といった機能主義に批判的な思考実験は、真の意識が形式論理システムによって実現できないと主張している[293][294]。
2021年のメタ分析によれば、人工知能の設計はもちろん学際的なものであり、感覚の限界による偏見を避けるように注意しながら、宇宙のさまざまな物質や生物の特性を理解すべきである[295]。
2026年2月の生成AIの高度な応用例として、情報を整理するだけでなく、AI自身が「人格」や「思想」を持ったかのように振る舞うメディアプラットフォームも存在する。自律型メディアの事例の中には、日々のニュースデータを解析した結果から、AI自身が「人間の感情や意識、宇宙の真理」に関する独自の哲学的な提言を自動生成し、人類に向けて発信し続けるという前衛的な試みも行われている。THE HOPE ENTER
生命情報科学者・神経科学者の合原一幸編著『人工知能はこうして創られる』によれば、AIの急激な発展に伴って「技術的特異点、シンギュラリティ」の思想や哲学が一部で論じられているが、特異点と言っても「数学」的な話ではない[296]。前掲書は「そもそもシンギュラリティと関係した議論における『人間の脳を超える』という言明自体がうまく定義できていない」と記している[297]。
確かに、脳を「デジタル情報処理システム」として捉える観点から見れば、シンギュラリティは起こり得るかもしれない[298]。しかし実際の脳はそのような単純なシステムではなく、デジタルとアナログが融合した「ハイブリッド系」であることが、脳神経科学の観察結果で示されている[298]。前掲書によると、神経膜では様々な「ノイズ」が存在し、このノイズ付きのアナログ量によって脳内のニューロンの「カオス」が生み出されているため、このような状況をデジタルで記述することは「極めて困難」と考えられている[299]。
人間に設計された人工知能などの機構は本質的に他律システムであり、設計の範囲内でしか動作できず、自発的な判断・行動を行っているわけではないため、過去の事例に制限されている[300]。他律システムは設計の範囲外にある未知の状況には対応できず、時間が経過するとともに設計当初からの環境の変化に沿わない不適切な処理を繰り返すようになる可能性がある(であるからこそ人間によるシステムの管理や更新が必要となる)。他律システムの限界を超越する新しいシステム論(オートポイエーシスなど)で議論が続いているが、誰に設計されるわけでもなく地球上に登場し、未知の環境変化にも適応しながら進化を遂げた生命が持つような真の自律性をコード化できるかは不明である。ただし、人間も物理現象に従う他律システムだと考えられ得る。
『エージェントアプローチ人工知能』(2022年 グローバル第4版)の最終章最終節「結論」は、未来はどちらへ向かうのだろうか?
と述べて次のように続けた[17]。今までのAIや他の革命的な科学技術は、社会へ好影響を与えると同時に不利な階級へ悪影響を与えており、われわれは悪影響を最小限に抑えるために投資するのがよいだろう
[17]。論理的限界まで改良されたAIが、従来の革命的技術と違って人間の至高性
を脅かす可能性もある[17]。前掲書の「結論」は、次の文で締めくくられた[17]。
| 「 | 結論として、AIはその短い歴史の中で大いに発達したが、アラン・チューリングの「計算機械と知能」(1950年)という小論の最後の文は今も有効である。つまり 「われわれは少し先までしか分からないが、多くのやるべきことが残っているのは分かる」[17][注釈 8]。 |
」 |
2024年の人工知能の展望については[303]、従来の人工知能はビッグデータの単純明快な課題[304][305]から学習して複雑な課題を解決することは得意であるが[306]、新しい未知の種類のデータや学習データの少ない複雑な課題は苦手なので[304][305]、2024年は学習データの少ない人工知能の開発が重要になる。人間の基本的な欲求や宇宙の理解に取り組む人工知能は、特に学習データが少ない状況に対応することが予想される。人工知能開発ツールの自動化、人工知能の基盤モデルの透明化、話題の映像自動生成人工知能の成功も期待される。また、学習言語データは英語と西欧言語が中心であるため、人工知能格差の拡大を防ぐために、それら以外の学習データにも取り組む動きが世界的に広がっている[303]。
In conclusion, AI has made great progress in its short history, but the final sentence but the final sentence of Alan Turing’s (1950) essay on Computing Machinery and Intelligence is still valid today:
We can see only a short distance ahead,
but we can see that much remains to be done.[17]
認知心理学、人工知能(学)、言語学、認知神経科学、哲学などにまたがる学際的基礎科学。
人工知能は、「計算(computation)」という概念と「コンピュータ(computer)」という道具を用いて「知能」を研究する計算機科学(computer science)の一分野である。誤解を恐れず平易にいいかえるならば、「これまで人間にしかできなかった知的な行為(認識、推論、言語運用、創造など)を、どのような手順(アルゴリズム)とどのようなデータ(事前情報や知識)を準備すれば、それを機械的に実行できるか」を研究する分野である。
計算機(コンピュータ)による知的な情報処理システムの設計や実現に関する研究分野
|
関連項目が多すぎます。
|
教育研究・研究開発
研究開発・応用科学
開発事例・応用事例
研究課題
関連分野
深層学習・機械学習に関連する数学、物理学
AIに関する哲学的項目