以下の内容はhttps://cocolog-nifty.hatenablog.com/entry/2026/03/26/164700より取得しました。


AI を使って国立国会図書館デジタルコレクションを大量に読んでいる

AI を使って国立国会図書館デジタルコレクションを大量に読む

dl.ndl.go.jp

私には国立国会図書館デジタルコレクションを大量に読むという課題があって、これを達成するために AI を使い出した結果、国立国会図書館デジタルコレクションを読む量が増えた。

隙あらば読むといった生活で、以前は休みの日に12時間くらい読んでいたこともあったが、流石に疲れるので今は多くても6時間くらいだと思う。

なんでこんなことをしているのかというと、国立国会図書館デジタルコレクションを大量に読みたいからで、このように人間には国立国会図書館デジタルコレクションを大量に読みたいという習性があるので、AI を使って読む量を増やすコツを共有しておく。

そういった習性がない人にも、なにかを消費するために AI を使う時に参考になるかもしれない。

少しでも面倒くさい場合には AI に解決させる。

基本方針は少しでも面倒くさいと思った瞬間に AI に解決させるというものである。国立国会図書館デジタルコレクション(以下国デジ)を大量に読む人がすることは、以下の三点に集約される。

  • 国デジを読む
  • 情報をまとめる
  • なんらかの出力をする

これ以外のノイズを排除していって、純度を上げる作業をする。ここでは純度が高ければ面倒くさくないし、低ければ面倒くさいといった考え方をしていく。

読んだり記録したり出力したりするために作ったら便利なもの

国デジを大量に読んでメモするためのツールの役割を、大きく分けると次の二つだと思う。

  • 閲覧のため
  • 記録・出力のため

使いたくなるものは、だいたい次のような感じだと思う。

読む

  • 検索を便利にする
  • リンクを開く

記録・出力する

  • ブラウザで読んでいる資料を自動的に記録する
  • OCRをしてテキストデータを得る

まずは AI を使うための環境を AI に作ってもらう

もともとは Web の UI を使って環境の改善をしていた。これなんかはそれ。

cocolog-nifty.hatenablog.com

AI を使うための環境を作るのに AI は役立つ。環境は最初に作るのが効率的だと思う。

私は環境構築するのことが趣味なので、徐々にハマっていって、Claude Code なんかも使い始めた。ところでターミナルに日本語入力するのが面倒くさくなり Emacs の上で Dvorak 配列の SKK で入力したくなってしまった。なのでこれを作った。

github.com

Emacs から zellij のセッションに文字列を送るだけのものだけど、私が必要な機能しかないので便利。これを使ってAIに命令を出している。↓の真似して作った。

github.com

emacs-ai-agent-bridgeを なぜ使わないのかというと、思想が違うからで、私はモニタのドットがもったいないとか、見る場所は一つだからフレームもひとつであるべきみたいな危険思想の持ち主なので、常に全画面表示で作業をしたい。あと AI の出力自体はそれほど重要ではないから黒板でいいだろうといった考え方で作った。

これまではこういうものがあればいいなと考えたとしても、絶対に作れなかった。今なら AI を使って作ることができる。すごい時代だ。

ちなみにだけど、私は Dvorak 配列のおかげでそこそこ入力が速いが、今は音声入力がすごいことになっている。Dvorak 配列より音声入力に慣れたほうが良いと思われる。

  • SHOKZ

読むためのツール

大量のリンクを開き記録する

私は国立国会図書館デジタルコレクションで、本格的に調査をする際には、書籍を読むために大量のリンクを開く。

特定の条件で検索すると、数千件の結果が出る。私の調べ方は、これを全件チェックするというもので、今は6,036件開く必要がある。流石に一日で6,036件をチェックしていくのは不可能なので、リンクを自動的に開き、開いたところを記憶してくれるツールセットを作った。

  • ndl-helper.user.js — Tampermonkey ユーザースクリプト(検索結果・ビューア両対応)
  • ndl_server.py — ローカル HTTP サーバー(開封履歴の永続化・ファイル保存)

国立国会図書館デジタルコレクションの検索画面に行くと、画像のようなものが出る。

調べている途中でうっかり閉じてしまうことがわりとあるので、履歴を保存してくれるのは安心感がある。

リンクなんてクリックしたらいいじゃんと思うかもしれないが、やってみると相当に面倒だと分かると思う。以前はゲーミングマウスで対処していたが、たまに薄ら腱鞘炎味が出ることもあったので、これを作って良かったと思う。こういうのも資料を読むのは純度が高い、クリックするのは純度が低いといった判断。

AI とは関係ない話になるが、ハードウェアでなんとかするというのも良い方向で、定期的に眼科に行くのは大切である。あとゲーミングレンズを使っている。

www.owndays.com

どの程度の効果があるのかは知らないが、以前に使っていて良かったビュイと同じような仕組みっぽいので使ってる。

gg291.com

こいった活動の結果、国立国会図書館デジタルコレクションを読む量が目茶苦茶増えた。

月別集計(概算)

  • 2025年2〜6月:約2,600件/月平均(低調期)
  • 2025年7〜9月:約8,500件/月平均(本格化)
  • 2025年10〜12月:約14,700件/月平均(加速期)
  • 2026年1月:約12,200件
  • 2026年2月:約15,500件
  • 2026年3月(24日まで):約29,200件

累計は2025年が62,877件、2026年がわずか3ヶ月弱で56,864件と、ほぼ前年通年に匹敵するペースで上のグラフで紫が2025年、オレンジが2026年、緑の線が7日移動平均となる。

もちろん私のやる気とか気分が関係してくるわけだが、とりえず1日あたりの平均処理件数で比較すると、2026年は2025年の約3.3倍のペースで良い傾向だと思う。

記憶・出力するのに便利なもの

記録用ツール

書誌情報記録するもの

記録用のツールで最もお勧めなのが『現在ブラウザ(またはアクティブなウィンドウ)で開いている資料の書誌情報やページ番号をログファイルに記録するツール』だと思う。私は Python で作ってもらった。これでメモを書く頻度が上る。

ポイントは面倒くさくなくするという点で、メモしたいと思った瞬間に cmd + Ctrl + m を押すとメモファイル readkindai.txt に『書誌情報・URL・メモした日時』が追記される。

さると月 : 児童文庫 第2輯 山田貞一 日本文化興社 昭和二一(一九四六)年 1946
https://dl.ndl.go.jp/pid/8371666/1/2
2026-03-25 12:52:54:

記録を取ること自体は純度が高いが、コピペするのは純度が低いといった考え方。

OCR の精度を上げる

本文をメモに入れたい時には OCR するのだが、これの精度が低いという問題があったので、AI に改善してもらう。手法としては画像を三種類の OCR エンジンで処理し、Gemini APIで統合校正するというもの。

screencapture -i(範囲選択)
        │
        ├── macOS Vision framework
        ├── Google Cloud Vision API
        └── ndlocr-lite
        │
        ▼
Safari から NDLデジコレの書誌情報を自動取得
        │
        ▼
3つのOCR結果 + 書誌情報 → Gemini API で統合校正
        │
        ▼
校正済みテキストをクリップボードにコピー + 標準出力

実行するとスクリーンキャプチャの範囲選択モードになり、範囲を選択すると、三系統の OCR と書誌情報取得が並列で走り、Geminiが統合校正した結果が標準出力とクリップボードに出力される。OCR のエンジンそれぞれが、画像の種類やフォントの種類など得意な場所が異なるので三種類使う。AI には修正分とともに、書誌情報も渡す。時代や分野などを踏まえて、AIが勝手に良い感じに直す。体感だと10個くらい修正する必要があったのが、2個くらいに減った雰囲気。

メモを取りたいというのは純度の高い行為、タイトルやらURLやらをコピペするのは純度が低い、本文を記録するのは純度が高い、OCRの誤認を修正するのは純度が低いといった感じ。

メモが楽になるとメモが増える

黎明期(2011〜2013): 年間17〜35件、まだ洗練されていないメモスクリプトを使い出したところ。

第一次成長期(2014〜2015): 81→113件と急増し、2015年に最初のピークを迎える。

回復〜停滞期(2016〜2020): 2016年読み過ぎて飽きたため、わずか10件まで激減、42→47→81→51件で、年50〜80件前後で安定はしているが伸びはない。

第二次成長期(2021〜現在): ここから加速度的に増えていく。112→257→346→400→718と、毎年着実に増加、特に2025年は AI とともにかなり無茶をしたので、前年比ほぼ倍の718件に達している。2026年はものすごい無茶をしているため3月時点で264件(うち3月だけで240件)というペースで、このまま行くと2025年を大きく上回る可能性がある。良い傾向だと思う。

出力する方向

出力する方向だと、私はこういうことをしている。

note.com

これの本文をどう作っているのか。やり方は色々なんだけど、基本的には、

  • 日時で検索をして出てきたものを順番に読む
  • その中から人間の行動を選ぶ
  • 短い文章にまとめる

といったところ。

"読む"と"短い文章にまとめる"は面倒くさくないので、そのままやる。(というかまだAIにはできない)

フォーマットを統一するだとか、note.comに投稿するのは純度が低い行為なので、自動化する。

100日分を書いたら校正してノートに予約投稿というやり方で、頼んだらpythonで作ってくれる。元ファイルを編集すると、git の履歴を見て変更あった部分だけ note.com も修正みたいなこともできている。

こういうことを人間がしようとすると面倒くさいのでやらないけど AI を使えばできる。ただし適当に作らせるとかなりゴチャゴチャするので、丁寧かつ適切に命令出して作ったほうが良いと思われる。

X.com投稿の自動化

書いた以上は読んでもらいたいが、note.com にアクセスして x.com に投稿というのは最高に純度の低いノイズなので、絶対にやりたくない。だから下みたいに x.com 自動的に投稿するようにしている。

  • note.comのRSSフィードを監視
  • 当日公開の記事を取得してツイート
  • RSSへの反映タイミングが不定なため、3分間隔でリトライする仕組みを実装
  • 最長で公開から30分程度リトライし続ける

ついでにはてなブログも Emacs で投稿できるようにした

頻繁に投稿するわけではないが、この日記を投稿するためにボタンを押すのも純度が低いので、 AI に投稿するやつを作ってもらった。

github.com

目茶苦茶雑に作ったけど、動いている。ついででこういうことができる時代なんだからすごい。

こういうのを作るコツ

一瞬でも面倒だと思ったら、速攻で作らせるのがコツで、とにかく面倒くさいと思ったら作らせる。自分のツールを10個くらい作って使っていると、徐々に駄目なところが目についてきてイライラしてくるので、 Ai に命令を出して改善させて、使いながらイライラするところを探すみたいな感じで洗練させていく。

実際に国デジを読んでメモを取り始めると、こういうものが欲しいというのが思い付と思われる。

ツールはなるべく小さく作るというコツもあって、これは Unix の思考みたいな本を読んだら分かるのだろうか?

要約すると小さいものが連携して機能が実現するといった感じ。逆に言うと国デジを閲覧して記録できるような国デジステーションみたいなソフトウェアを作ろうとするのは悪手だということになる。

ちなみにこの活動を邪魔する仕事という最も純度が低い行為があるが、もちろん AI を使って減らしている。

毎日のように読んでメモを取りながら一瞬でも純度が低いと思ったら AI が作ったツールで経由で AI に命令を出して、 AI が改善している待ち時間で国デジを読んで読書メモを書き AI が作ったツールで効率化され国デジを読む量が増えるといった仕組みでイカれた生活だが、こういう生活を送る人間が増えると、世界が平和になっていくと期待されている。

ところで作ったものを公開するかどうか

私は情報は共有すべきだという考え方の持ち主なのだが、AI で作ったツールは、基本的にしなくてもいいと思っている。

なぜ人間が情報を共有するのかというと、人間の創造性が促進されるからである。私が AI 作ったツールの場合は、私の使い方には合ってるけど、他人の使い方にマッチする可能性は低い。それならなにかを使いたい人が、自分専用のものを使いたいように AI に作らせたほうが、人間の創造性が発揮できるだろうという理屈である。

github に公開しているものは、更新したら elpaca(パッケージマネージャ)経由で反映みたいなのが簡単だからやっているだけで、使ってくださいという意味ではない。ただし万が一参考になるかもしれないので、CLAUDE.md も一緒に公開している。

例外

ただし例外に「さじグラム」があって、これは大さじと小さじをグラムに換算するのが面倒なので作った。

ichibeikatura.github.io

我ながら使いやすいと思うのでこれは公開している。

面倒くさいのをなくすのを国デジと仕事以外にも拡張した形で、人間は飯を食わないと死ぬので飯は重要、しかし飯を作るのは面倒くさい。だから AI に面倒くさいのを撃破させる。

そんなに一所懸命に使わなくても問題ない

今の AI の使い方にはいくつかのレイヤがある。

現状の AI の機能で、質の高いプロダクトを作るということになると、ちゃんと使わないといけない。作業を git のコミット単位で細かく分けて、一つずつ AI にやらせてレビューする。 CLAUDE.md やスキルファイルでAIへの指示を整備しておく必要もある。AI難しそうというのはこれ。

私が使ってるくらいのものなら、要件だけ書いてガーッと作らせるので十分で、そんな頑張らなくてもよい。 AI の性能が十分に上ってきているので、適当に文字列を送ってたらなんとかなる。

もちろんコンテキストをなるべく増やさないように心掛け、雑に何回か質問や回答を繰り返しながら作るより、カチっと命令出したほうが早いとかのコツは確実にあるけど、使っているうちに分かると思う。あと変なインフルエンサーみたいな人が書いたページ読むよか、公式のドキュメント読むほうが良いみたいなコツもあるか。

色々書いたが私が使ってて思うのは、自分のコアな行動に最適化したツールを作ることは、創造性が発揮された状態だというもので、EPWING形式のホトトギス新歳時記を使いひらがなを漢字に変換したいというニーズには創造性がある。

私が全く理解できないニーズは、そこいら中に数えきれないくらいあるはずで、それを満そうとすることで人間の創造性が発揮され、世界平和につながるんだと思う。




以上の内容はhttps://cocolog-nifty.hatenablog.com/entry/2026/03/26/164700より取得しました。
このページはhttp://font.textar.tv/のウェブフォントを使用してます

不具合報告/要望等はこちらへお願いします。
モバイルやる夫Viewer Ver0.14