ibaibabaibaiのサイエンスブログ

サイエンス中心の予定ですが,何を書くかわかりません.統計とかの話はこっちに書くつもり. https://sites.google.com/site/iwanamidatascience/memberspages/ibayukito  ツイッターは@ibaibabaibai

ローレンツは気象学者の敵じゃなかったみたいだ

少し前から創生プロジェクトという未来の気候の予測に関する巨大プロジェクトの隅のスミにいる.メンバーはほぼ全員が気象とか防災の専門家だが,試しに統計科学の人もいれてみようということで,私の属している研究所から4人だけはいっている.気象の人たちと話すのははじめてなので,自分でも入門書のたぐいを読んでみた.以下はその感想である.

スパコンで巨大な数値モデルを計算して予報をしているらしい」というくらいは知っていたが,実際に予報に使われているモデルが地球全体を扱うもの(GCM)だというのはちゃんと認識していなかった.より分解能の高い地域モデルも併用されるが,主力は全球モデルなのだそうだ.原理的には,ヨーロッパや米国の機関の数値計算の結果を使って日本の予報ができることになる.

こうした計算をするには,たとえば60km四方というような網目で全地球を覆う.しかし,地球は丸いので,単純に網目で覆うと,北極や南極のような特異点が避けられない.そこで以前からの方式だと,すべてをものすごく高次の多重極展開(球面調和関数展開)で表現する.これは実座標との変換などで計算負荷が大きいので,正二十面体にまず分割して各面を細分する方式なども開発されているらしい.なかなか大変そうである.

いくつか本を眺めてみて意外だったのは,ローレンツ方程式で有名なローレンツが,リチャードソンと並んで数値予報の礎を作った人と見なされているらしいということだ.「カオス性のおかげで長期の予報は無理だ」と主張したわけだから,きっと嫌われているのだろう,と勝手に思っていたが,むしろ「初期値の違うシミュレーションを多数考えて誤差を推定するアンサンブル予報の考えに導いた」という肯定的な見方をされているらしい.

気象の人たちが確率に対して「わからないということが正しくわかることは重要だ」という正統的な考え方をしているのは興味深い.アンサンブル予報の場合も,たとえば10個の初期値をどれだけ効果的にバラつかせるが重要な研究テーマらしい.単に乱数を加えるのではなく,数日前に遡って乱数を入れ,そこから一定期間ごとにパターンの直交化みたいなことをやりながら互いに離れた10個をえらぶ,ようなことが実際におこなわれている.

こういうやり方では確率分布としての解釈は逆に難しくなってしまうが,それよりも,限られた個数でできるだけバラつかせることを優先している.自らの不確かさをあえて追求する「自虐的な」な考え方は,ある意味では確率ということの真髄をついている気がする.

一般には.高度な確率モデルを駆使する分野の人が自分の結論の不確かさを知りたがっているとは限らない.たとえば,パターン認識自然言語処理では,目標はひたすら認識率の向上で「不確かさを確かに知る」こと自体に価値を見出す文化は概して薄い.この場合の確率的表現は,むしろアルゴリズムの内部で不確かな情報をやりとりしてうまく統合するのが役割なのだろう.

週間予報のために実際に走っているシミュレーションは,少し前まで51本だったのが,最近では21本になっている.数が減るのはおかしい気がするが,個々の計算に割り当てるリソースを増やしたのだろう.ちなみに「切りのいい数字プラス1本」のプラス1本は何かというと,これは現在の観測値を入れた計算なのであった.

(おまけ)
「地球気」というサイトがあって,色々な天気図などをダウンロードできる.なかでも,週間予報の根拠をA4版1ページにまとめた資料が素人には面白い.アンサンブル予報の台風について「2割はこのあたりにいるが,残りの8割はこちら」などと書いてあると,なんだか親しみがわいてくる.たまには「数値予報では低気圧ができるが(人間の判断で)採用しない」などと書いてあったりもする.

地球気 http://n-kishou.com/ee/

(おまけ2)
これは絶対無理だと思うんだけど,GCMのような数値モデルを使わずに,流行りのDNN(ディープニューラルネット)を使って,パターンを入れたら週間予報が出てくるのが作れたらすごいよね.データはいっぱいあるからやってる人いるかな.全然読まずに石のパターンだけからDNNに囲碁を打たせる,という研究があるんだから,だめもとでやるならありかも.