以下の内容はhttps://yamaimo.hatenablog.jp/entry/2026/03/14/220000より取得しました。


OR学会の2026年春季大会に行ってきた。

3/4(水)〜3/6(金)でOR学会の2026年春季シンポジウムと研究発表会があって、いろいろ話を聞いてきたので、感想とか。

麗澤大学へ

今回の会場は千葉県柏市にある麗澤大学。

麗澤大学

地元に近い場所だったので、今回は車で。 駐車場としては近くのコインパーキングが使えたので助かった。

ちなみに、朝や夕方は道が混んでてなかなか大変だった。 とくに旧水戸街道は酷くて、路駐の車や自転車、人が多く、ヒヤヒヤものだった。 これはキツかったなぁ・・・

シンポジウム

まずはシンポジウムで、今回のテーマは「老いる日本,産官学の力でどう向き合うのか」だったんだけど、過疎の話や相続の話など、普段なかなか聞けないような話が聞けたので面白かった。

相続の話は3/5(木)にも1セッション用意されてて、これも面白かった。 相続に関わる諸問題を工学的にデータから分析していくアプローチがあるのねぇ。 手続きの複雑さに関する話、孤立死に関する話、土地の計測に関する話と、思った以上に幅広い論点がある感じ。

シンポジウムではパネルディスカッションもあったんだけど、これはなかなか難しそうだった。 タイムマネジメントとかファシリテーションとか、やっぱりスキルが必要よね。

特別講演

特別講演は3つあり、ダイヤモンドの合成、建築での最適設計の話も面白かったんだけど、個人的に面白かったのは元熊本県知事の蒲島氏の話。

どんな感じの経歴で熊本県知事になったのかという話や、県知事になってからどのように改革を進めていったのかという話を聞けて、それぞれの話も面白かったんだけど、やっぱり感じたのは凄い人というのは実行力と人脈が凄いよなということ。 あるべき姿から逆算してやるべきことを見つけ出し、それに向かって(必要なら軌道修正しつつ)ひたすら進んで実現してしまう。 そのときに凄い人同士で助け合うネットワークがあって、ギブとテイクを喜んでしあう関係性がある感じ。 ちょっと思い出したのは2023年の秋で特別講演をしていた衣笠氏で、この方もアイディアを出したところから実現するところまでの実行力と、それを助け合う人脈とが凄かった。

よく格差がどうとかいうけど、このギブを喜んでできる層というのがコミュニティを成してますます伸び、テイクばかり求める層は弾き出され、お互いテイクばかりを求めるからますます貧しく、不満ばかり口にするようになっている気はする。 格差がいいとは思わないけど、なんかこのテイカーだらけの層にギバーがチューチューされるのもなんかなぁ・・・ もちろん、そうありたくてもできない人もいるから、「ノブレス・オブリージュ」という言葉もある通り(そして暴力的な簒奪が起きないように)、適切な再分配というのも必要なんだろうけど。

予測と最適化の融合

今回の発表で多かったなと感じたのは(自分が興味を持って聞きにいってるのもあるけど)予測と最適化をうまく繋げていこうというもの。

普通の最適化だと係数が確定した数式で考えるわけだけど、実際には係数の値は分からないことが多くて、予測をしたり他の工夫をしたりが必要になってくる。 ただ、単に予測→最適化とすると、最適化に適した予測になってるとは限らない。 そこで、最適化に適した予測が出てくる。 それに関連した発表がいろいろあったなと。

観測誤差と確率分布の不確実性を考慮したロバスト意思決定指向学習

係数が未知の場合、まず係数を予測して、予測した係数で最適化するというのが考えられる。 ただ、同じ誤差でも最適解に留まる場合と他の解に移ってしまう場合があって、都合が悪い。 そこで、解の質がよくなることに注力して予測をするDFL(Decision-Focused Learning)というのがあるらしい。

ただ、従来の研究だと観測誤差とか運用時の分布の変化に対するロバストさがないので、それらに対処するために、リグレットという値の計算をロバストなものに変えたという研究。

数値実験でも目論見通り目的関数の悪化が抑えられてたとのこと。

予測精度が分布的ロバスト競合比に与える影響の分析

予測して最適化する場合に気になるのが予測精度が最適化にどのような影響を与えるか。 この研究ではスキーレンタル問題というのに対して、予測精度がどのような影響を与えるか分析してた。

予測が与えられない場合には競合比という指標でアルゴリズムを評価するっぽいのだけど、予測が与えられる場合には一貫性競合比と頑健性競合比(これは従来の競合比と同じ)で評価するとのこと。

ここで分布的ロバスト競合比(DRCR, たぶんDistributionally Robust Competitive Ratio)という指標もあるらしく、これを分析した研究で、一貫性競合比と頑健性競合比の凸結合になってるという結果らしい。 予測の精度がいいと一貫性競合比になり、予測がまったく当たらないと頑健性競合比に一致するという結果で、予測の精度がよければいい結果が得られる(しかも線形)という感じっぽい。

こういう分析の研究もあるんだなというのが面白い。 こういう素直な特徴があると分かっていれば、予測を頑張る甲斐もあるからね。

最短路能動学習における獲得関数の検討

最短路を求めるのは代表的な最適化問題だけど、実際には辺の重みが分からないことが多い。 そこで辺の重みを他の特徴量から学習して予測するというのが考えられるけど、辺の数が多かったり実績値を得るのが難しい場合、どの辺を学習すべきかを選ぶこと自体が課題になってくる。

どの辺の実績値を得て学習を行うかの選び方には、たとえばランダムに選ぶだとか、ベイズ最適化のように不確実性が大きく残っているところを選ぶとかがあるけど、この研究では最短路を求めた結果について感度分析を使って余裕度という指標を計算し、余裕度の小さい辺(≒最短路を求めるときにネックになりやすい辺、ということのはず)を選ぶように学習するのを考え、数値実験も実施したとのこと。

ちなみにこの特徴量にはグラフの特徴も含まれているとのこと。 なので、学習に使ったグラフとは別のグラフであっても、特徴量に対する分布が同じという前提で、同じように予測はできる。 ただ、どの辺を選んで学習したかで予測の質は変わってくるので、それで辺の選び方の影響を評価できると。

数値実験では提案手法を使うことで他の辺の選び方よりもいい結果になったとのこと。

予測だけを考えるのであれば、既存のベイズ最適化のようなのがあるわけだけど、その予測をどのように使うのかを踏まえて、重要な部分の予測を重点的に行えるようにすると、よりよい結果になるというのは面白い。

鉄道乗務員運用問題に対する構成的強化学習:便乗と休憩の自動決定を含む枠組みの提案

作成済みのダイヤに対して乗務員を割り当てるという問題で、これは係数が未知とかではないんだけど、強化学習を使ったヒューリスティクスを考えていて、それが予測の技術と繋がっていくものとなっていた。

各ステップの乗務員の状態を入力とし、どの行動を選ぶべきかという確率を出力とするようなRNN(ここではTransformer)を用意して、行動の選択→状態の更新を繰り返すことを解を構築し、その解を評価して重みにフィードバックを返すことで、各状態でどんな行動を選ぶべきかを重みとしてエンコードさせていく感じ。

たしかに強化学習自体は最適化だし、状態関数の表現としてNNを使うのもよくある手だけど、最適化の問題自体に強化学習を使うのはなるほどという感じ。

リスク回避的な部分適応的多段階確率計画法

これは予測とは関係ないけど、不確実性へ対処する一つの方法として。

逐次的な意思決定を考える方法として(多段階)確率計画法があるけど、頻繁に計画を更新(リコース)できるとは限らないので、どのタイミングで計画を見直すべきかを決定する部分適応的多段階確率計画法というのが提案されているらしい。

ただ、これについてリスクに対する立場をどうするかという観点があるらしく、既存の研究だとリスク中立的なものだったけど、それを発展させ、リスク回避的な場合にどうなるかを研究したとのこと。

発表の詳細は難しくて理解しきれてないけど、リスク選好度が影響を与えるらしく、平均的なコストとリスク回避とでトレードオフの結果があるという結果らしい。 その結果自体は自然な感じある。

ゼロ頻度問題に対する分布的ロバスト最適化モデルの公理論的分析

これは予測とか最適化とか関係ないんだけど、分布的ロバスト最適化の応用例として、こんなのもあるんだと思った発表。

観測した事象から経験的な確率分布を作る場合、未観測な事象は確率0となってしまうので、都合が悪い(ゼロ頻度問題)。 そこで、各事象の観測数に定数を足し込んでおいて、未観測な事象も確率0とはならないようにするラプラス平滑化という方法があるとのこと。 (ちなみに、ベイズ統計で事前分布を与えるのは下駄を履かせてるのと同じなので、これは事前分布を与えた上で事後分布を考えてるのと同じはず)

このラプラス平滑化を行ったときにどのような特徴が得られるかという話があって、平滑化で満たしているとよさそうな特徴4つについてラプラス平滑化は満たしていて、かつ、その4つの特徴をすべて満たすような平滑化はラプラス平滑化に限るという先行研究があるらしい。 公理論的に、まず満たすべき公理(特徴)を定め、その公理で導かれるモデルにどのようなものがあるのか、という発想は、面白い。

で、ただこうすると1つのモデルしか定まらないので幅が狭く、つまり公理が強すぎるので、もっと複数の平滑化が考えられるように公理を弱められないか、みたいなのが、発表の研究の動機らしい。

ここでは分布的ロバスト最適化を使った平滑化というのを考えていて、どのような不確実性集合を取るかによって変わってくるというのはあるけど、摂動型の不確実性集合を考えた場合には、4つの特徴のうち(自然な仮定の元で)3つの特徴を満たすことが示せた、とのこと。


まぁそんな感じで、予測と最適化をうまく繋げていくような発表が多かったなぁ、と。 実際、このあたりは実務で悩むところでもあるので。 内容は難しくて全然理解しきれてないけど、そういった研究があるんだと知ることができたのはよかった。

今日はここまで!




以上の内容はhttps://yamaimo.hatenablog.jp/entry/2026/03/14/220000より取得しました。
このページはhttp://font.textar.tv/のウェブフォントを使用してます

不具合報告/要望等はこちらへお願いします。
モバイルやる夫Viewer Ver0.14