以下の内容はhttps://shigeo-t.hatenablog.com/entry/2025/12/01/050000より取得しました。


【図解】「開発ができる人はインフラもできる」という話は本当か?

現場から離れて時間が経ってるから、そんなアホな奴がいるとは思わなかった。

 

 

基本的にクラウド前提だとして、丁度いい図を自分で書くのが面倒なので探してみた。タイトルに【図解】って入れながら、自分で図を描かないという手抜き。

data.wingarc.com

 

「インフラ」を指すのがPaaSまでなのかIaaSまでなのかは別として、一般にはインフラエンジニアはPaaS、IaaSの若草色の部分が担当である。最低限、IaaSの若草色の部分はフルに担当する。今は普通に仮想化を使うからかなりラクだけど、物理サーバ、ストレージ、ネットワークのレイヤが面倒なのはガチ本番用高可用の実機を導入すればわかる。開発機、テスト機とか小さい構成を入れてわかった気にならないように。

 

前にも書いたけど、顧客先担当になって当初の担当はインフラだった。当時はインフラストラクチャーなんて高尚な言い方はしていなくて、ハード・設備担当だった。

 

しかも今みたいにサーバならいいけど、メインフレームである。今より性能は低いけどデカい。デカいということさえご理解頂ければ。

ja.wikipedia.org

メインフレーム(英: mainframe)は、主に企業など巨大な組織の基幹情報システムなどに使用される大型コンピュータを指す用語。汎用コンピュータ、汎用機、大型汎用コンピュータ、ホストコンピュータ、大型汎用機 などとも称される。

 

デカいということで何が起こるか。思い出した項目を列挙する。順不同である。なにか忘れている気もする。

  • 搬入経路、搬入口確保
  • 耐荷重
  • ケーブルを通す経路の確保
  • 適切な冷却の確保
  • 地震対策

 

まず搬入経路、搬入口だが、大きいということで考慮されたデータセンタであれば大きいエレベータもあるし、ある程度までは普通に搬入できる。もちろん、全部組み立てた状態では乗るエレベータも限られるので分割して搬入可能な設計にはなっている。そして、考慮されていないとか大きいエレベータが無いビルへの搬入だと、クレーンで吊ってその階の搬入口から入れることになる。下の耐荷重の話とは別にエレベーターやクレーンや搬入経路もそれぞれ重さも気にする必要がある。

 

耐荷重は結構厄介である。基本的に床に直置きなんてことはなくフリーアクセスで嵩上げして、下にケーブルを通すようにしている。フリーアクセスじゃなくて、直置きするデータセンタも写真では見たことあるけどケーブル類は全部天井から吊る形態だった。絶対フリーアクセスのほうがラクだろw。今だとオフィスも配線いっぱいするからフリアク使っているオフィスも多いが、あれのゴツいやつがデータセンタでは使われている。コレのデカいやつを固定してその上にパネルを置いている。

  • Caseder

耐荷重が厄介なのは、フリーアクセス側の耐荷重も気にする必要があるし、フロア全体の耐荷重も気にする必要がある。あと、いずれも全体として数値がクリアできても、局所的に重たいのはフリーアクセスやフロアの耐荷重要件を満たさない。新規のフロアに新規で入れるならきれいに設計できるけど、すでに他システムが入っている場合は既存との共存でうまく設計する必要がある。

 

ケーブルも太くて重たい。今だと太いケーブルのほとんどは電源系だけど昔は機器間の接続も通信系も太かった。やっぱり新規のフロアに新規で入れるならきれいに設計できるけど、すでに既設があると敷設の経路上で必要な穴があるかどうかは全て確認する必要がある。特に歴史のあるデータセンタだと撤去済機器のケーブルが撤去されずに残っていることもある。ヘタすると壁に穴開けますかみたいな話になるのだが、建物だってそう簡単に穴を開けて良いわけがなく、設計上の確認や工期確保は大変である。場合によっては穴を増やすことの許可が出ず、グルッと迂回して敷設することもある。こうなると、今度は機器の設計上の有効ケーブル長なんてものも関わってくる。あまり有効長を気にしなくていいのは電源系くらいだし、割と電源は分電盤容量さえ余裕があればどこでもいいのだが、だからといって他との兼ね合いもあるから変な取り方もできないし、面倒である。

 

そうやって置き場所やケーブル敷設が決まったとして、今度は冷却である。フリーアクセスの下はケーブルが入っている。そして冷却風の経路でもある。フロア備え付けのエアコンからきちんと冷たい空気が機器まで届くのか。また、ある程度はフリーアクセスから逃がす必要もあるので適切にグレーチングを入れる必要もある。

機器の排気の都合もあるので壁との距離、他機器との距離という問題もある。フリアクの下からの冷気がきちんと機器内を通って他と干渉せずに排気されるようにする。

  • 法山本店

 

地震対策も必要である。耐荷重とも関係するけど、場合によってはアンカーを打つこともある。フロアに固定するための固定金具である。そうなると打てる場所なのかという問題も出る。また、壁から離さなければ倒れた時に建物を壊すのでデータセンタ側の都合で離す距離の指定もあったりする。

 

これが今だと大きいシステムはほぼラックマウントということになるので、ラックの中でうまくいくように配置する、ラック間でうまくいくようにするってことになる。基本はそう大きく変わらないけど、例えばL3/L2スイッチが入るラックは昔の通信ケーブルに比べれば細いかもしれないけど、すごい数のケーブルが入ることになるし、重い機器は上に入れるなとか、特定の熱い機器は冷却するためには上下のユニットは開けてくれとかディスプレイ・キーボード・マウスをラックマウントするなら人間が操作しやすい高さにしなきゃいけないよとか。38Uのラックだと2m弱で42Uだと2m越えである。また、38Uラックは中身無しで200kgくらい、色々マウントしていくと1,000kg=1t程度である。

 

つまり物理サーバとネットワークとストレージのハードウェアを導入するだけでこういう話が分かる人材が必要ってことである。もちろん、お金を積めばベンダー側がある程度までは詰めるけど、データセンターを持っている側が設計や確認、借りている側が折衝することも当然多い。

 

ここまでの話はもちろんどんなシステム構成にするのかという設計後の話。システム要件に加え可用性や性能やセキュリティなどの非機能要件が設計に反映できてからの話。

 

で、開発ができる人はインフラもできるって?できてももう少し上のレイヤーじゃない?そりゃ網羅的に設計できる人がいないとは言わないが。

引用したクラウドの図でいうところのOSとかランタイムとか。まあそれもインフラ担当部分ではあるけど、全部IaaS/PaaSだけならそれでもまあある程度はいけるか。

違ったこっちのほう。




以上の内容はhttps://shigeo-t.hatenablog.com/entry/2025/12/01/050000より取得しました。
このページはhttp://font.textar.tv/のウェブフォントを使用してます

不具合報告/要望等はこちらへお願いします。
モバイルやる夫Viewer Ver0.14