Deep learning and Physics


Project maintained by cometscome Hosted on GitHub Pages — Theme by mattgraham

「ディープラーニングと物理学 オンライン」とはオンラインWeb会議システムを利用したセミナーです。2023年10月より、学習物理領域セミナーと合同で開催されています。

登録する際のメールアドレスは、できるだけ大学もしくは研究機関のものをご使用ください。

DLAP世話人: 橋本幸士(京都大)、富谷昭夫(大阪国際工科専門職大学)、永井佑紀(東京大)、田中章詞(理研iTHEMS)(順不同)

領域セミナー世話人:橋本幸士(京都大)、広野雄士(京都大)、三内顕義(京都大)、金子隆威(早稲田大)(順不同)

本セミナーシリーズは、科学研究費補助金学術変革領域研究(A)「学習物理学の創成」の補助を受けております。

2022年以前の講演はこちら

第6回学習物理領域セミナー+第58回DLAP

日時:2月15日10:30~11:30(JST)
発表者:池 祐一 氏(九州大学マス・フォア・インダストリ研究所)
場所(ハイブリッド):京都大学理学研究科5号館511号室
講演スライド
発表題目:パーシステントホモロジーと機械学習
概要:近年,位相的データ解析,特にパーシステントホモロジーは機械学習と密接に結びついて発展してきている.本講演では,パーシステントホモロジーと機械学習を組み合わせる様々な取り組みについて説明したい.データのパーシステンス図を機械学習の入力として使うという従来からの手法だけでなく,パーシステントホモロジーを⽤いたトポロジー的損失項を⽬的関数に加えて最適化することで学習器をトポロジー的にコントロールするアプローチや,機械学習モデルにパーシステントホモロジーを組み込むという比較的最近の話題にも触れる予定である.また時間があれば,ニューラルネットワークからトポロジー的な特徴量を取り出したり,パーシステンス図を計算する関数そのものをネットワークで学習したりする試みについても説明したい.

第5回学習物理領域セミナー+第57回DLAP

日時:12月14日10:30~11:30(JST)
発表者:乾幸地 氏(東京大学大学院工学系研究科原子力国際専攻)
場所(ハイブリッド):上智大学四谷キャンパス理工学部9号館254A
オンライン配信会場:京都大学理学研究科5号館511号室
講演スライド
発表題目:自動微分を用いた欲しい性質をもつハミルトニアンの逆設計: バンドトポロジーと量子エンタングルメントへの応用
概要:逆問題を解くことによって欲しい性質を持つハミルトニアンを自動設計することは、新しい原理や物質を発見する上で有望なアプローチである。 我々は、自動微分を用いた汎用的な手法を開発し、以下のような様々な性質へ応用することでその有用性を実証した。
(1) 異常ホール伝導率を最大化するタイトバインディング・ハミルトニアン、
(2) 太陽光照射によって誘起される光電流を最大化するスピン電荷結合ハミルトニアン、
(3) 量子エンタングルメントを最大化する量子スピンハミルトニアン
我々のフレームワークはこれ以外の様々な系に応用が可能であり、この手法の発展が材料開発や理論研究の加速に繋がると考えている。
K. Inui and Y. Motome, Inverse Hamiltonian design by automatic differentiation, Commun. Phys. 6, 37 (2023)
https://www.nature.com/articles/s42005-023-01132-0

第4回学習物理領域セミナー+第56回DLAP

日時:12月8日10:30~11:30(JST)
発表者:太田敏博 氏(サイバーエージェント AI Lab)
場所(ハイブリッド):上智大学四谷キャンパス理工学部9号館254A
オンライン配信会場:京都大学理学研究科5号館511号室
講演スライド
発表題目:Hopfield/Mixer 対応:MetaFormer のより良い理解に向けて
概要:近年の Transformer の目覚ましい発展・応用は自然言語処理だけでなく画像認識の分野でも顕著である。Transformer において決定的な役割を果たしていると思われていた注意機構は画像認識モデルとしては必須では無いことが実験的に示唆されており、Transformer のさまざまな変種 (MetaFormers) が提案されている。一方物理学のスピングラス模型からインスパイアされた Hopfield 模型は古くから連想記憶模型として知られており、現代的 Hopfield 模型では注意機構をも内包することが明らかとなってきた。本講演ではまず Transformer と CNN の比較および Transformer の変種の代表格である MLP-Mixer を紹介したのち、 MetaFormer の統一的理解に向けて現代的 Hopfield 模型が有用であるかもしれないことを議論する。とくに MetaFormer の新しいアーキテクチャデザイン手法として Hopfield/Mixer 対応を提案し、その帰結として理論的に導出される新しい MetaFormer モデルを紹介する。最後に Hopfield/Mixer 対応の可能な拡張やその展望について述べる。

第3回学習物理領域セミナー+第55回DLAP

日時:11月9日10:30~11:30(JST)
発表者:玉井敬一 氏(東大理・知の物理学研究センター)
場所(ハイブリッド):上智大学四谷キャンパス理工学部9号館254A
講演スライド
発表題目:深層ニューラルネットワークと非平衡臨界現象:ディープラーニングに潜む普遍的な法則の探求
概要:深層学習の応用が近年次々と成功を収めているが、その背後にある原理の理解は 依然として容易ではない。深層学習の原理を理解することは、学習のシステマティックな設計や 信頼性向上に資するのみならず、より広汎な多体系(たとえば現実の神経系)において “知性”が発現する仕組みを理解する上で重要な役割を果たす可能性がある。 本講演では、「吸収状態転移」という非平衡系特有の転移現象を中心軸に据えて、 人工深層ニューラルネットワークの振る舞いを非平衡統計力学の視点で捉える試みを 紹介する。前半で神経科学・深層学習理論研究における進展の(一部)概観を通じて動機づけを 行った後、後半では、初期化人工深層ニューラルネットワークにおける信号伝搬ダイナミクスが 吸収状態転移の現象論的スケーリングの枠組みで見通しよく整理できることを提案した我々の研究 [1]について説明する。
[1] KT, T. Okubo, T. V. T. Duy, N. Natori and S. Todo. arXiv:2307.02284.

第2回学習物理領域セミナー+第54回DLAP

日時:10月26日10:30~11:30(JST)
発表者:高木志郎 氏
場所(ハイブリッド):上智大学四谷キャンパス理工学部9号館254A
講演スライド
発表題目:研究ができる人工知能の実現へ向けた課題の検討
概要:機械学習は様々な研究分野に応用されて多くの科学的成果をあげている [1][2]。しかし、研究のツールとしての機械学習を超えて、自分で研究ができる人工知能を作るには、まだ多くの課題がある。本公演では、このような課題の所在について検討する。まず初めに、研究をどのような行為として特徴づけることができるかを検討する。これを基に、このような人工知能を作るために必要なものやその含意について考察する。その後、研究の自動化に関連する試みを概観する。最後に、講演者らが実施した簡単な検証の結果得られた課題も踏まえて、この人工知能の実現へ向けた課題について検討する。
[1] Scientific Discovery in the Age of Artificial Intelligence
[2] Artificial Intelligence for Science in Quantum, Atomistic, and Continuum Systems

第1回学習物理領域セミナー+第53回DLAP

日時: 10月5日10:30-11:30(JST)
発表者: 橋本幸士 氏(京都大)
場所(ハイブリッド):京都大学理学部5号館511
講演スライド
発表題目: Neural Polytopes
概要:本講演ではまず、非構造化ディープニューラルネットワークによる機械学習を用いて、量子力学において基底状態だけでなく低励起状態の波動関数を計算する方法を提案する。同一粒子からなる系に対して、ボソニック系では対称化、フェルミオン系では反対称化を行う簡単な方法も提案する。また、得られた波動関数の解釈を通じて、離散幾何学と機械学習の橋渡しを行う。特に、ReLU活性化を持つ単純なニューラルネットワークが、様々な次元の単位球の近似として多面体を生成することを見出す。多面体の種類は、ユニット数や層数などのネットワークアーキテクチャによって制御される。様々な活性化関数に対して、多面体の一般化が得られ、これを我々はニューラル多面体と名付けた。これは多角形の滑らかな一般化であり、幾何学的双対性を示す。この発見は、機械学習によって曲面を近似する「生成離散幾何学」の研究の端緒となろう。また、重力の量子論に向けての応用についても議論する。
参考文献
[1] Koji Hashimoto, Tomoya Naito, Hisashi Naito, “Neural Polytopes”, arXiv:2307.00721
[2] Koji Hashimoto, Tomoya Naito, Hisashi Naito, “Multi-body wave function of ground and low-lying excited states using unornamented deep neural networks”, arXiv:2302.08965

第52回

日時: 9月7日10:30-11:30(JST)
発表者: Stefan Heusler 氏(ドイツ・ミュンスター大)
講演スライド(外部リンク)
発表題目: The impact of machine learning on science education
概要:Machine learning is expected to have massive impact on society in general and on the educational system in particular. In the first part of my talk, I will raise very general questions on the actual situation, as the progress in the development of machine learning is much faster than political regulations, which is also an issue from the point of view of education, as I will show with some actual examples from Germany. In the second part of my talk, I will focus on physics education and ask the question which kind of competencies will remain important for education with the advent of machine learning - both in High school and at university. With some presumably provocative statements on which activities might be reserved for human intelligence and cannot be surpassed by machine learning, I will end the talk and welcome a vivid discussion on the question how science education must adapt to this new era.
Further reading: https://www.uni-muenster.de/CeNoS/en/InterKIWWU/index.html

第51回

日時: 6月1日10:30-11:30(JST)
発表者: 田中章詞 氏(RIKEN AIP/iTHEMS)
講演スライド
発表題目: 近年の深層学習について
概要:2012年ごろから大きく進展があった深層学習のテクニックですが、近年では更なる進化と、それに伴ってライブラリも並行して進化してきています。本講演ではその近年の深層学習技術の発展のオーバービューと最近の有用と思われるライブラリの説明をしたいと思います。

第50回

日時: 4月27日10:30-11:30(JST)
発表者: 永井佑紀 氏(国立研究開発法人日本原子力研究開発機構 システム計算科学センター)
講演スライド
発表題目: 機械学習分子シミュレーションを用いた、準結晶における高次元性の解析
概要:本講演では、機械学習分子シミュレーションという最近非常に盛んに研究がなされている分野を概観するとともに、その応用例である準結晶における高次元性の解析について紹介する。
機械学習分子シミュレーション:現実世界は原子の集合から成り立っている。つまり、原子の集合の間の相互作用がわかり、それぞれの運動をシミュレーションすることができれば、物質、材料、薬、生物、あらゆることが計算機の上で再現できることになる。しかしながら、原子の性質は量子力学が関わっているため、その相互作用を正確に評価するには極めて難しい量子多体問題を解く必要がある。さらに、原子の数は非常に多く、計算は非常に困難である。そこで、計算の困難な相互作用の評価の部分を機械学習に置き換えることで、従来の計算を数千倍以上の高速化する機械学習分子シミュレーションが登場した。本講演では、機械学習の物理学への応用として有用な例として、分野外の人にもわかりやすく機械学習分子シミュレーションについて紹介する。
準結晶:準結晶とは、秩序だった結晶構造を持つにもかかわらず周期性のない物質である。これは単なる空想上の物質ではなく、1982年にDan Shechtman博士(2011年ノーベル化学賞)が発見し、結晶では決して生じない5回及び10回対称性を持つ電子線回折パターンを実験的に観測されている。また、準結晶の結晶構造は、高次元(5次元や6次元)空間における超格子の現実空間(3次元)への射影として理解することができる。本講演では、この高次元性が実際に現実世界の観測可能な物理量に反映されていることを示すため、実験と機械学習分子シミュレーションを用いて比熱を解析した結果について報告する[1]。

参考文献

[1] YN, Yutaka Iwasaki, Koichi Kitahara, Yoshiki Takagiwa, Kaoru Kimura, Motoyuki Shiga, “Atomic diffusion due to hyperatomic fluctuation for quasicrystals”, arXiv:2302.14441


過去のワークショップ研究会

Deep Learning and physics2019
Deep Learning and physics2018
Deep Learning and physics


過去の講演

2022年

第49回

日時: 1月26日10:30-11:30(JST)
発表者: 坂田綾香 氏 (統計数理研究所)
講演スライド
発表題目: 近似確率伝搬法による一般化線形モデルの予測誤差表現について
概要:既知データから構成した統計モデルが、未知データを適切に表現(予測)できるかどうかは、統計的機械学習における中心的課題である。モデルの予測能力は、一般に予測誤差を用いて評価され、予測誤差の小さいモデルが、高い予測性能を持つ適切なモデルであると判断される。しかし予測誤差は定義から観測不可能であり、代わりに観測可能な推定量として情報量規準や交差検証誤差、Cp規準などが用いられる。これらの推定量は統計学的な漸近極限では一致するが、有限系では必ずしも一致しない。本発表では、一般化線形モデル(GLM)において、これらの予測誤差の推定量を議論する。線形モデルにおいては、予測誤差の推定量が解析的に求められる場合もあるが、GLMの場合はそのような性質は期待できない。そこで、事後分布の近似的評価方法である近似確率伝搬法(GAMP)を導入し、GLMにおける予測誤差の推定量を導出する。その結果として得られる予測誤差の推定量は、モデルパラメータの推定値の揺らぎにより与えられることを示す。この性質は伊庭[1]、渡辺[2]らにより指摘されてきたが、GAMPを用いることで予測誤差と揺らぎの間に明確な比例関係が導出できること、また線形モデルの結果を拡張した形式として解釈できることを説明する[3]。

参考文献

[1] 伊庭,private communication
[2] S Watanabe, Jpn. J. Stat. Data Sci. (2021)
[3] A Sakata, arXiv:2206.12832

第48回

日時: 1月19日10:30-11:30(JST)
発表者: 道下 佳寛 氏 (理研 CEMS)
発表題目: 機械学習を援用した適切なフレームの探索
講演スライド
近年機械学習の物理分野への応用は盛んに研究がなされているが、物理学における理論解析手法の探索に対しての機械学習の応用に関する研究は乏しい。

そもそも物理学者がどのように理論解析手法を開拓してきたのか、という事について考えた時、一つのキーワードとなるのが「スケールの分離」であろう。スケールの分離を用いると、摂動論による解析や変数の削減を行う事が出来、また人為的にスケールの分離を導入して、くりこみ群の手法を用いる事もできる。しかし一般にスケールの分離を見つける事は容易ではなく、適切なフレームをみつける(適切な射影やユニタリ変換をかます)事で、スケールの分離が明確な基底にもっていき、そこで摂動論などの解析を行う事ができる。

本研究では、この適切なフレームの探索を機械学習を援用して行う手法を提案する。機械学習を用いる事によって、人間が見つけづらい非自明なスケールの分離及びそれに付随する適切なフレームの探索を行う事が最終的な目標であるが、今回は最初の一歩として、明確なスケールの分離が存在する時に、提案する手法がそれに付随する適切なフレームを見つける事が出来る事を確かめた。(具体的な系として、周期駆動された系(2-spin系)を考え、教師なしの回帰型ニューラルネットワークを用いる。)

この際「ニューラルネットの表現能力の限界が寧ろ、適切なフレームの探索に有利に働きそうである」などいくつか面白そうな知見を得たので、それらを紹介しつつ、上手くいかなかった事についても紹介したい。

[1] arXiv:2211.15269

第47回

日時: 12月22日10:30-11:30(JST)
発表者: 神野隆介 氏 (東大ビッグバン宇宙国際研究センター)
発表題目: Machine Learning Post-Minkowskian Integrals
講演スライド
概要:We study a neural network framework for the numerical evaluation of Feynman loop integrals, which are fundamental building blocks for perturbative computations of physical observables in gauge and gravity theories. We show that such a machine learning approach improves the convergence of the Monte Carlo algorithm for high-precision evaluation of multi-dimensional integrals compared to traditional algorithms. In particular, we use a neural network to improve the importance sampling. For a set of representative integrals appearing in the computation of the conservative dynamics for a compact binary system in General Relativity, we perform a quantitative comparison between the Monte Carlo integrators VEGAS and i-flow, an integrator based on neural network sampling.
[1] Ryusuke Jinno, Gregor Kälin, Zhengwen Liu, Henrique Rubira, arXiv:2209.01091

第46回

日時: 12月8日10:30-11:30(JST)
発表者: 村尾美緒 氏 (東大理)
発表題目: 完全量子学習: 未知ユニタリ変換の比較アルゴリズムと逆変換化アルゴリズム
概要:
未知の量子オブジェクト(量子状態や量子変換など)に量子コンピュータをつないで特定の性質を学習することを、量子学習(quantum learning)と呼ぶ。特に、量子オブジェクトを繰り返し量子測定することによってその完全な古典的記述を求める量子トモグラフィやその後の古典情報処理を行わず、最終的に必要な答え以外の古典情報は抽出せずに完全に量子コンピュータの内部で情報処理をするタイプの量子学習は、完全量子学習(fully-quantum learning)と呼ばれる。一般的に量子オブジェクトは系のサイズに関して指数関数的なパラメータ数を持つため、量子トモグラフィで得られた古典データに基づいた古典情報処理はコストが高い。そのため、古典情報処理を用いない完全量子学習の優位性が期待できる。まず、未知の2つのユニタリ変換が同じか違うかという情報を抽出する量子学習について、完全量子学習によって理論上最も効率的な情報抽出を行うための量子アルゴリズムを考察し、利用できる未知ユニタリ変換の回数が決められている時の最適戦略を導出したことを紹介する[1]。次に、未知ユニタリ変換を有限回利用して量子コンピュータ内で学習し、その逆変換を正確に実行する完全量子学習の量子アルゴリズムを紹介する[2]。このアルゴリズムは、物理系のハミルトニアン時間発展の『時間逆回し』に対応する。
参考文献:
[1] Y. Hashimoto, A. Soeda and M. Murao, arXiv:2208.12519
[2] M. T. Quintino, Q. Dong, A. Shimbo, A. Soeda and M. Murao, Phys. Rev. Lett. 123, 210502 (2019), S. Yoshida, A. Soeda and M. Murao, arXiv:2209.02907

第45回

日時: 11月10日16:30-17:30(JST)
発表者: Marcel Rodekamp 氏 (IAS, Julich and Julich, Forschungszentrum and Bonn U., HISKP),
発表題目: Mitigating the Hubbard Sign Problem. A Novel Application of Machine Learning
概要: Many fascinating systems suffer from a severe (complex action) sign problem preventing us from simulating them with Markov Chain Monte Carlo. One promising method to alleviate the sign problem is the transformation towards Lefschetz Thimbles. Unfortunately, this suffers from poor scaling originating in numerically integrating of flow equations and evaluation of an induced Jacobian. In this talk we present a Neural Network architecture based on complex-valued affine coupling layers. This network performs such a transformation efficiently, ultimately allowing simulation of systems with a severe sign problem. We test this method within the Hubbard Model at finite chemical potential, modelling strongly correlated electrons on a spatial lattice of ions.
参考文献:
[1] Marcel Rodekamp et al., Phys.Rev.B 106 (2022) 12, 125139

第44回

日時: 10月27日10:30-11:30(JST)
発表者: 船井正太郎 氏 (株式会社アラヤ)
発表題目: 機械学習が抽出する特徴とイジング模型の相転移点
講演スライド
概要: 機械学習の成功は、データの特徴を抽出して表現する能力に支えられている。 その特徴抽出の様子を調べるために、データセットに2次元イジング模型のスピン配位を、特徴抽出するautoencoderに制限ボルツマンマシン(RBM)を使ったところ、ある条件下では、相転移点付近の配位を最も特徴的と捉えて学習することがわかった[1]。 データセットの大部分が高温の(ランダムに近い)配位であっても、低温の配位がわずかに含まれていて、また配位のサイズが充分に大きければ、やはり相転移点付近の配位を特徴的と捉えて学習するようだ[2]。 これは機械学習の特徴抽出を理解する上で重要になる、非自明な現象であろうと私は考えており、RBMのweight matrixの解析結果などと共に、紹介させていただきたい。
参考文献:
[1] S. Iso, S. Shiba (Funai), S. Yokoo, Phys. Rev. E 97, 053304 (2018) [arXiv:1801.07172 [hep-th]].
[2] S. Shiba Funai, arXiv:2111.11166 [cs.LG].

第43回

日時: 9月15日10:30-11:30(JST)
発表者: 石川勲 氏 (愛媛大学)
発表題目: 可逆ニューラルネットのSobolev空間における普遍性について
講演スライド
概要: 可逆ニューラルネットワークは単純な形をした可逆な写像の多重に合成することで作られるニューラルネットワークである。データ生成や転移学習など様々な応用を持つが、写像の可逆性という制限から解析が難しく実際にどれほどの表現力があるのかは知られていない場合が多かった。 本研究では可逆ニューラルネットワーク(INN)のSobolev空間における普遍性、すなわち、高階の微分係数を込めた近似能力について考察を行い、十分な表現力を持つための簡明な十分条件を証明した。またこの結果を用いてSum-of-square flow (SOS)やNeural ODE(NODE)によるINNがSobolev空間において普遍性をもつことを示した。更に、そのようなINNはTotal Variationの意味で絶対連続確率測度の空間での普遍性を持つことも示した。

第42回

日時: 6月23日10:30-11:30(JST)
発表者: 富谷昭夫 氏 (IPUT Osaka)
発表題目: Finite temperature and density gauge theory with classical-quantum hybrid algorithm
講演スライド
概要:

場の量子論は超弦理論や素粒子標準模型の記述に必須の理論物理学の体系であるが一般的に解析が困難であり、テイラー展開をつかった摂動論をつかって主に解析が行われている。 近年の量子コンピュータの発展により、場の量子論を研究するための量子コンピュータ向けアルゴリズムの開発が近年盛んに行われている。 本研究では、有限温度・密度における量子ゲージ理論を近未来の量子デバイスで使用可能な変分法アルゴリズム(量子古典ハイブリッドアルゴリズム)を用いて調べた。 具体的には、混合状態を含んだ密度行列を変分法で取り扱うβ-VQEを適応して、場の理論の熱・量子期待値を評価し、 質量の無いシュウィンガー模型の相図を温度と密度に沿って調べた。 本講演では、それらの結果について報告する。
[1] Akio Tomiya arXiv:2205.08860

第41回

日時: 6月9日10:30-11:30(JST)
発表者: 園田 翔 氏 (理研AIP)
発表題目: 一般空間上の積分表現ニューラルネットとリッジレット変換
講演スライド
概要:ニューラルネットが表す関数の性質を調べるには,ニューロン毎のパラメータを調べるよりも,ニューロン集団の分布を調べる方が扱いやすいことがある.前者を連続体のLagrange表示(物質表示)に対応付けるならば,後者はEuler表示(空間表示)に対応付けられる.積分表現理論は,一つの隠れ層を構成するニューロン集団を符号付き分布として定式化する解析理論である.このアプローチの強みは,ニューラルネットが表す関数fを分布関数γに対応付ける分解作用素(リッジレット変換)が積分作用素として陽に書き下せることである.リッジレット変換は1990年代にEuclid空間上の全結合層に対してMurata, Candes, Rubin によって独立に発見されていたが,今日の多様なネットワーク構造に対するリッジレット変換は未発見であった.講演者らの最近の研究により,多様体(非コンパクト対称空間)上の全結合層や,抽象ベクトル空間上の群畳み込み層に対してリッジレット変換を系統的に導出できるようになった.本講演では,その導出方法について解説する.
[1] S.Sonoda, I.Ishikawa, M.Ikeda, “Fully-Connected Network on Noncompact Symmetric Space and Ridgelet Transform based on Helgason-Fourier Analysis”, to appear in ICML2022. (Preprint available at arXiv:2203.01631)
[2] S.Sonoda, I.Ishikawa, M.Ikeda, “Universality of group convolutional neural networks based on ridgelet analysis on groups”, arXiv:2205.14819, 2022.

第40回

日時: 5月26日10:30-11:30(JST)
発表者: Shirley Ho 氏 (Flatiron Institute, New York University)
発表題目: INTERPRETABLE LEARNING IN PHYSICAL SYSTEMS
概要:This work describes how machine learning may be used to develop accurate and efficient non-linear models for complex natural systems. We combine neural networks and symbolic regression to automatically discover the governing equations and hidden properties of real physical systems from observations. We will present multiple examples ranging from solar system data to simulated cosmological dataset. More broadly this work represents a key step toward realizing the potential of machine learning for accelerating scientific discovery.

第39回

日時: 5月12日10:30-11:30(JST)
発表者: 田中 章詞 氏 (RIKEN AIP/iTHEMS)
発表題目: モンテカルロ法による強化学習入門
講演スライド
概要:学習エージェントをある環境の下でどのように制御すべきか、という問題に対する一つのアプローチが強化学習です。今回の入門講義では学習エージェントの目的関数を導入し、それを改善してゆくプロセスが強化学習アルゴリズムであることを[1]に基づいて説明したのち、強化学習の文献でしばしば用いられる2次元の格子状環境(Grid world)を用いた実践を行います。
[1] Reinforcement Learning: An Introduction, Richard S. Sutton and Andrew G. Barto

第38回

日時: 3月10日10:30-11:30(JST)
発表者: 橋本 幸士 氏 (京大理)
発表題目: 深層学習と創発時空(ホログラフィー原理)に関する文献紹介
講演ノート
概要:ニューラルネットワーク自体を重力時空とみなし、深層学習をホログラフィー原理(AdS/CFT対応)とみなす一連の研究の最新成果の一つである文献[1]を紹介する。文献[1]は文献[2]でAdS/CFT対応のCFT側の量子エンタングルメントを学習データとした時空創発が行われたことの改善であるが、[1]では重力時空の量子和を試みており、量子重力理論と深層学習の間の橋渡しにチャレンジしている点が新しい。関連領域のレビューとともに、[1][2]を紹介する。
[1] Machine Learning Statistical Gravity from Multi-Region Entanglement Entropy
Jonathan Lam, Yi-Zhuang You
https://arxiv.org/abs/2110.01115
[2] Machine Learning Spatial Geometry from Entanglement Features
Yi-Zhuang You, Zhao Yang, Xiao-Liang Qi
Phys. Rev. B 97, 045153 (2018) https://arxiv.org/abs/1709.01223

第37回

日時: 2月17日10:30-11:30(JST)
発表者: 三内 顕義 氏 (理研AIP)
発表題目: Deep learning and symmetry
概要:点群やグラフのように数学的表記が機械の入力として受け付けない形式のデータが存在する。そのようなデータを深層学習する場合に、データのベクトル化によって生じる対称性を持った表記揺れを打ち消すような深層モデルを用意し、それによって学習を行う方法が一般的である。そのようなモデルのことを不変/同変深層モデルと呼ばれる。本講演ではレイノルズ作用素と呼ばれる作用素を用いて深層ニューラルネットを不変/同変深層モデル方法、およびそれを用いたグラフを入力とするニューラルネットの構成を紹介する。

第36回

日時: 1月13日10:30-11:30(JST)
発表者: 瀧 雅人 氏 (立教大)
発表題目: Computer VisionにおけるTransformerとMLP-Mixerの現状
講演スライド
概要:深層学習の広範な分野での成功・高い性能の秘密は、単に深いニューラルネットを使うということではなく、ネットワーク構造のデザインにより様々な帰納バイアスを柔軟に実現できる点にある。その典型的な例は、画像タスクにおける畳み込みニューラルネット(CNN)である。この10年の画像タスクにおける深層学習の大きな成功も、CNNの持つ帰納バイアスをベースにしていると言って良い。
 ところが2020年になり、畳み込み構造に一切依存しない深層学習によって、SOTA CNNに匹敵する性能を実現できることが判明した。この新しいモデルはVisual Transformer(ViT)と呼ばれる。ViTは自然言語処理分野において発展したself-attentionを使うことで、非局所的なパターンも動的に抽出することが可能なアーキテクチャである。また翌年にはMLP-Mixerと呼ばれる手法で、self-attentionを使わずとも、多層パーセプトロン(MLP)をベースにしたモデルだけでも同等の性能の画像認識が可能であることが判明した。
 このように、現在CNNパラダイムとは全く別の画像認識の方向性が明らかになりつつある。このViT、及びMLP-Mixerの発見は、データセットサイズがスケールアップした深層学習では、必ずしもCNNのような強い帰納バイアスは必要でなくなることを実証している。また訓練データセットがスケールしていくとやがてViTがCNNを凌駕することから、場合によっては強い帰納バイアスがモデルの性能に限界をもたらすことも具体的にわかってきた。
 このセミナーでは、ViTおよびMLP-Mixerの現状とこれまで判明している興味深い事実、およびその欠点について議論したい。またその上で、MLP-Mixerを改善しようと試みた最近の研究についても紹介する。

2021年

第35回

日時: 12月9日16:30-17:30(JST)
発表者: Pim de Haan 氏 (Univ. of Amsterdam)
発表題目: Gauge Equivariant Mesh Convolutional Neural Networks
講演スライド
概要:Convolutional neural networks are widely successful in deep learning on image datasets. However, some data, like that resulting from MRI scans, do not reside on a square grid, but instead live on curved manifolds, discretized as meshes. A key issue on such meshes is that they lack a local notion of direction and hence the convolutional kernel cannot be canonically oriented. By doing message passing on the mesh and defining a groupoid of similar messages that should share weights, we propose a gauge equivariant method of building a CNN on such meshes that is direction-aware, yet agnostic to how the directions are chosen. It is scalable, invariant to how the mesh is rotated, and performs state-of-the-art on a medical application for estimating blood flow.

第34回

日時: 11月25日10:30-11:30(JST)
発表者: 大門 俊介 氏 (東大)
発表題目: 深層学習による量子指紋の解読
概要:ナノ量子系の電気伝導は、一般に周期性をもたない不規則な磁場依存性を示すことが知られている。この磁気伝導度ゆらぎは、試料内で電子が複雑に散乱・干渉することで引き起こされ、試料固有の振動が観測されることから「量子指紋」と呼ばれる。一方で、不規則に振動する量子指紋を解読することは従来の解析手法では困難であり、ミクロな内部情報を抽出することはできなかった。そこで本研究では、量子指紋を解読可能な深層生成ネットワークを開発し、複雑な磁気伝導度ゆらぎからミクロな内部情報の抽出に挑戦した。講演では、開発ネットワークによる試料のミクロ構造および量子干渉情報の生成と、実験データへの応用について報告する。

第33回

日時: 11月11日10:30-11:30(JST)
発表者: 吉野 元 氏(阪大)
発表題目:深層ニューラルネットワークにおけるレプリカ対称性の破れとその空間構造
講演スライド
概要:G. Parisiによってスピングラスにおいて発見されたレプリカ対称性の破れ(RSB)[1]は、 複雑な自由エネルギー地形を捉える概念として、物理、情報、生物にまたがって分野横断的に用いられている。我々は、feed-forward型の深層ニューラルネットワークを用いた機械学習の問題を統計力学的に解析する中で、ネットワークの深さ方向に空間変化する特徴的なRSB[2,3]を見出していた。フラストレーション効果が厳しい入出力層付近でRSBは最も複雑な階層構造を持ち、これがネットワークの中央部に向かって単純なものに段階的に繰り込まれてゆく。訓練データとしてランダムな入出力データを用いた場合(ランダム制約充足問題)にこの現象を見出していたが、教師ー生徒シナリオ(統計的推定)においてもノイズによってベイズ最適性が崩されゆくと同様の現象が起こることが最近わかった。これが実際の深層学習に対して示唆することを数値シミュレーションの結果も交えて議論する。
[1] G. Parisi, Phys. Rev. Lett. 43, 1754 (1979). 今年のノーベル物理学賞の核となる仕事 https://www.nobelprize.org/uploads/2021/10/sciback_fy_en_21.pdf
[2] H. Yoshino, SciPostPhysCore 2, 005 (2020).
[3] 物理学会誌9月号(76巻9号)「最近の研究から - 深層ニューラルネットワークの解剖ー統計力学によるアプローチ」

第32回

日時: 10月28日10:30-11:30(JST)
発表者: 山内紫 氏(メリーランド大)
講演スライド
発表題目:Real-time dynamics of lattice field theories via machine learning (https://inspirehep.net/literature/1841031 related)
(ご講演は英語)
概要:Quantum chromodynamics (QCD), the underlying theory of nuclei and neutron stars, has been studied successfully by lattice QCD, a non-perturbative method for computing Feynman path integrals. However, lattice QCD calculations in Minkowski spacetime suffer from the so-called sign problem, preventing us from computing non-equilibrium properties of QCD efficiently. One way to address sign problems is to deform the contour of integration in the path integral to the complex plane. I will argue for the existence of such deformed contours that solve the sign problem completely for a wide class of lattice field theories such as Yang-Mills theories. I will also discuss numerical methods based on machine learning to find such perfect contours.

第31回

日時:2021年10月4日16:00- (いつもと時間が異なります)
講演者:中郷 孝祐 氏(PFN)
講演スライド
発表題目:PFP:材料探索のための汎用Neural Network Potential
(Quantum Computational Materials Science Roundtableとの共催です)
概要: Neural Network Potential (NNP)は、Neural Network を用いて分子動力学ポテンシャルを表現するものである。本セミナーではNNP研究の流れを振り返り、どのようにNNP開発のためのデータセット収集やNeural Networkの取扱いが発展してきたのかを紹介する。 後半では、多種多様な系に対して適用可能となるように開発した汎用NNPであるPFP [1]についての解説を行う。また、PFPを用いた事例としてどのような材料探索が行えるかをその応用的な使い方とともに紹介する。
[1] PFP: Universal Neural Network Potential for Material Discovery

第30回

日時: 7月15日10:30-11:30(JST)
発表者: Dimitrios Bachtis 氏 (Swansea University)
発表題目:Quantum field-theoretic machine learning
概要: The precise equivalence between discretized Euclidean field theories and a certain class of probabilistic graphical models, namely the mathematical framework of Markov random fields, opens up the opportunity to investigate machine learning from the perspective of quantum field theory. In this talk we will demonstrate, through the Hammersley-Clifford theorem, that the $\phi^{4}$ scalar field theory on a square lattice satisfies the local Markov property and can therefore be recast as a Markov random field. We will then derive from the $\phi^{4}$ theory machine learning algorithms and neural networks which can be viewed as generalizations of conventional neural network architectures. Finally, we will conclude by presenting applications based on the minimization of an asymmetric distance between the probability distribution of the $\phi^{4}$ machine learning algorithms and that of target probability distributions.

第29回

日時: 7月1日10:30-11:30(JST)
発表者: Lei Wang 氏 (Chinese Academy of Sciences)
講演スライド
発表題目:Fermi Flow: Ab-initio study of fermions at finite temperature
概要: Fermi Flow is a variational free energy approach to thermal properties of interacting fermions in the continuum. The approach builds on classic works such as Feynman’s backflow transformation and DeWitt’s quantized point transformation. Crucially, one can leverage modern computing techniques for these physical transformations by exploiting their connection to recent advances in deep learning, such as equivariant normalizing flows and neural ordinary equations. I will discuss promising results of Fermi Flow applied to the uniform electron gas, a fundamental problem in condensed matter and warm dense matter research.

第28回

日時: 6月17日10:30-11:30(JST)
発表者: 蘆田祐人 氏(東大)
講演スライド
発表題目:差分進化を用いた最適なナノ熱機関の探索
概要:最適な熱機関を探索する試みはカルノーの古典的な仕事以来、熱統計力学の中心的な課題の一つである。本講演では、進化的計算の一つである差分進化と呼ばれる手法を用いて、相互作用するナノ熱電系のうち熱力学的効率・パワーの意味で「最適」な熱機関を同定する試み[1]について紹介する。(時間が許せば)ベイズ推定の超解像推定への応用に関する研究についても簡単に紹介する。
[1] YA and T. Sagawa, Commun. Phys. 4, 45 (2021).

第27回

日時: 6月3日10:30-11:30(JST)
発表者: 今泉允聡 氏(東京大学 先進科学研究機構)
発表題目: 深層学習の汎化誤差解析:損失面由来の暗黙的正則化と深層モデルの二重降下
概要:深層学習が高い汎化性能を達成するが、その原理の理論的解明は未だ発展途上の課題である。本講演では深層学習の性能を記述する、(i)損失面由来の暗黙的正則化、(ii)深層モデルのための二重降下、の2つの理論研究成果を紹介する。
(i)暗黙的正則化は、学習アルゴリズムがニューラルネットワークモデルの自由度を暗黙的に制約することで、深層学習の過適合が防がれていることを主張する。ただし、深層ニューラルネットワークで実現する暗黙的正則化は明らかではなく、有力であるとされていた正則化の仮説(零点や学習初期値近傍)は近年の研究で強い批判を受けている。本研究では、深層ニューラルネットワークの損失面が多くの局所最小値を持ちかつ一定の仮定を満たすとき、この形状が学習アルゴリズム(確率的勾配降下法)の行動を制約し正則化を実現することを理論的に示す。またこのとき、深層ニューラルネットワークが正則化され、この汎化誤差がパラメータ数に依存しない上限を持つことを示す。
(ii)二重降下をはじめとする漸近リスク解析は、モデルから定まる共分散構造のスペクトルを用いて、過剰なパラメータを持つモデルの汎化誤差を解析する理論的枠組みである。近年強い注目を集めて議論が進展しているが、この理論が適用できるのはランダム特徴量モデルやカーネル回帰などの特徴量に対する線形モデルに限られる。よって、層が多いニューラルネットワークなどの深層モデルへの適用可能性は未知数である。本研究は、線形性の制約を置かない一般的なモデル族について、最適化問題が尤度関数で定義されかつ一定の正則性を満たす時、この汎化誤差の上限が漸近リスクの理論に従うことを示す。さらにこの正則性条件を調べることで、並列化ニューラルネットなどの具体的な非線形・深層モデルが二重降下などの理論に従うことを示す。

第26回

日時: 5月20日10:30-11:30(JST)
パネルディスカッション: テーマ「物理 x 深層学習 の未来」
パネラー: 大槻東巳 氏(上智大理工)、樺島祥介(東大理/知の物理学研究センター)、田中章詞(理研iTHEMS/AIP 慶応数理)、富谷昭夫(理研BNL)、永井佑紀(原子力機構)
情報提供: 野尻美保子(高エネルギー加速器研究機構)、福嶋健二 (東大理)
概要: 2017年に開始された”Deep learning and physics”会合は、現在およそ1000名の登録者の方々が集うコミュニティに成長しました。そこで、これまでの「物理 x 機械学習」の研究の進展を振り返り、これからの研究の進展の可能性と方向を議論する機会を設けます。パネラーの方々そして情報提供の方々から今後の可能性についてプレゼンをいただき、それを元にパネラー間そして聴衆の方々と議論をすることで、これからの研究を加速する種とし、本コミュニティでの問題共有を行うとともに、チャンレンジする大きな課題を明確化します。

第25回

日時: 5月6日10:30-11:30(JST)
発表者: 田中章詞 氏(理研iTHEMS/AIP 慶応数理)
講演スライド
発表題目:識別器による最適輸送
概要:深層学習を用いた潜在変数モデルの代表的な二つの例として、変分自己符号化器と敵対的生成ネットワークが知られています。これらは共に二つのネットワークを訓練するモデルです。変分自己符号化器は画像などのデータを潜在変数にエンコードする符号化器と、それをデコードして画像に戻す復号化器から構成されます。敵対的生成ネットワークは潜在変数から新たな画像を作り出す生成器と、それを本物と見分ける識別器から構成されます。変分自己符号化器ではそれぞれのネットワークが訓練後も明確な応用(符号化、復号化)を持ちますが、敵対的生成ネットワークの識別器は一見明確な応用先を持たないように思えます。本講演では最適輸送理論のアイデアを借用することで識別器を用いて生成器の画像生成の品質改善が可能[1]なことと、その他の識別器の応用について説明します。
[1] Tanaka, A.. “Discriminator optimal transport.” NeurIPS (2019)

第24回

日時: 4月22日10:30-11:30(JST)
発表者: 堀江正信 氏(株式会社科学計算総合研究所、筑波大学システム情報工学研究群)
講演スライド
発表題目:物理シミュレーションのための同変グラフニューラルネットワーク
概要:グラフニューラルネットワーク (GNN) は、物理シミュレーションで広く用いられるメッシュデータに対して効率的に学習を行える機械学習モデルであり、これを用いることにより物理シミュレーションを高速化・高効率化することが期待されている。しかし、一般的な GNN は推論に時間がかかること、回転や平行移動といった座標変換に対する対称性 (同変性) を考慮していないなどの問題があった。そこで講演者らは、高速に推論できかつ座標変換に対する同変性を持つ GNN を提案した [1]。提案手法では、既存の同変 GNN では不可能であった、100 万頂点ほどの大規模グラフに対する高速な推論が可能であることが示されている。本講演では、提案手法およびその関連研究について述べる。なお、提案手法に関するソースコードは https://github.com/yellowshippo/isogcn-iclr2021 からダウンロード可能である。
[1] M. Horie, N. Morita, T. Hishinuma, Y. Ihara, N. Mitsume. Isometric Transformation Invariant and Equivariant Graph Convolutional Networks, In International Conference on Learning Representations (ICLR), 2021 (arXiv: 2005.06316).

第23回

日時: 4月8日10:30-11:30(JST)
発表者: 富谷昭夫 氏(理研BNL)
講演スライド
発表題目:ゲージ共変なニューラルネットと4次元非可換ゲージ理論への応用(Gauge covariant neural network for 4 dimensional non-abelian gauge theory)
概要:ニューラルネットの文脈でも物理においても対称性は本質的に重要である。本講演では、講演者らが開発したゲージ対称性を保つニューラルネットワークについて議論する。このニューラルネットワークは、リー群に値を取るベクトル場の間の写像を対称性を保ちながら実現する。従来のゲージ場のスメアリングやgradient flowは、固定パラメータを持つランク2テンソルのニューラルネットワークやneural ODEとみなすことができることを発見した。さらに活性化関数(スメアリングにおける規格化)の局所性を利用して、ゲージ共変ニューラルネットワークのバックプロパゲーションを導き出した。さらに学習則がうまくいくことを確認するために、動的フェルミオンを含む非可換ゲージ理論の系に対して、共変ニューラルネットワーク近似作用を用いた自己学習HMC(SLHMC)をもちいてシミュレーションを行った。結果としてHMCの結果をSLHMCが再現することを確認した。本講演は、[1]に基づく。
[1] Akio Tomiya, Yuki Nagai, https://arxiv.org/abs/2103.11965

第22回

日時: 3月11日10:30-11:30(JST)
発表者: 松原祟 氏(大阪大学大学院基礎工学研究科)
講演スライドweb版
発表題目: エネルギー保存則など望ましい性質を持つ深層学習の設計について
概要: “深い”ニューラルネットワークである深層学習は高い柔軟性を持ち,大規模なデータを学習することで,自動的に高度な意思決定システムを構築できるのだと説明されている.しかし,実際に深層学習が注目される契機となったのは畳み込みニューラルネットワークであり,平行移動不変性という特殊な性質を持っている.この性質によって,対象の位置のずれや微小な変形に対して堅牢な識別が可能になっている.類似したアイデアは,データの集合を入力として受け取るDeep Setsや,ノード間の順番を考慮しないグラフ畳み込みにも見られ,それぞれの分野で高い性能を発揮している.成功した深層学習は,ノーフリーランチ定理そのままに,何らかの性質を持つよう設計されている.
このような考え方を物理学の世界に広げると,望ましい性質として物理の法則が挙げられる.近年ではハミルトニアンニューラルネットワークといい,ハミルトン系の基礎方程式を模倣することで,連続時間でエネルギー保存則が成り立つ物理シミュレーションを可能にするフレームワークが提案されている[1].講演者らはさらに,ハミルトン系に限定されずエネルギーで記述された物理現象について,エネルギー保存則・散逸則を 離散時間において 厳密に保証するフレームワークを提案した[2].本講演では,これらの研究に関する近年の動向を紹介するとともに,深層学習から見た物理学への期待についても述べる.
[1] Sam Greydanus, Misko Dzamba, and Jason Yosinski, “Hamiltonian Neural Networks, “ Advances in Neural Information Processing Systems (NeurIPS), 2019.
[2] Takashi Matsubara, Ai Ishikawa, and Takaharu Yaguchi, “Deep Energy-Based Modeling of Discrete-Time Physics,” Advances in Neural Information Processing Systems (NeurIPS), 2020.

第21回

日時: 2月25日10:30-11:30(JST)
発表者: 一木輝久 氏(名古屋大学未来社会創造機構)
発表題目: ニューラルネットワークによる結び目の標準化
概要: 典型的なニューラルネットワークはaffine変換と活性化関数を繰り返すことで実装されている.したがって活性化関数が狭義単調な連続関数の場合、ニューラルネットワークは入力データ空間の位相的性質を保存する変換を表現していることになる[1, 2].そこで本講演ではニューラルネットワークを、トポロジーを不変に保つ変形を行う変換器として利用することを提唱する.具体的には結び目の上に配置した荷電粒子の反発エネルギーを最小化することによって、グチャグチャに折りたたまれた「汚い」結び目を、よりエネルギーの低い「標準的な」結び目へ変形するようニューラルネットワークの学習を行う.荷電粒子の物理モデルに勾配法などを適用すればニューラルネットワークは必要ないように思われるが、純粋な物理モデルで長さ一定の紐の上に束縛された粒子の運動を数値的に取り扱うのは容易ではない.このような利点を踏まえ、ニューラルネットワークは結び目を分類できるだろうか?という問いに対する取り組みを紹介する.
[1] C. Olah, “Neural Networks, manifolds, and topology”, Blog post (2014).
[2] M. Hajij and K. Istvan, “A topological framework for deep learning”, arXiv:2008.13697.

第20回

日時: 2月18日10:30-11:30(JST)
発表者: Hidenori Tanaka 氏 (Group Head & Senior Scientist at NTT Physics & Informatics Laboratories,Visiting Scholar at Stanford University)
Daniel Kunin 氏 (Stanford University)
Slide
発表題目: Neural Mechanics: Symmetry and Broken Conservation Laws in Deep Learning Dynamics
(ご講演は英語)
概要: Predicting the dynamics of neural network parameters during training is one of the key challenges in building a theoretical foundation for deep learning. A central obstacle is that the motion of a network in high-dimensional parameter space undergoes discrete finite steps along complex stochastic gradients derived from real-world datasets. We circumvent this obstacle through a unifying theoretical framework based on intrinsic symmetries embedded in a network’s architecture that are present for any dataset. We show that any such symmetry imposes stringent geometric constraints on gradients and Hessians, leading to an associated conservation law in the continuous-time limit of stochastic gradient descent (SGD), akin to Noether’s theorem in physics. We further show that finite learning rates used in practice can actually break these symmetry induced conservation laws. We apply tools from finite difference methods to derive modified gradient flow, a differential equation that better approximates the numerical trajectory taken by SGD at finite learning rates. We combine modified gradient flow with our framework of symmetries to derive exact integral expressions for the dynamics of certain parameter combinations. We empirically validate our analytic predictions for learning dynamics on VGG-16 trained on Tiny ImageNet. Overall, by exploiting symmetry, our work demonstrates that we can analytically describe the learning dynamics of various parameter combinations at finite learning rates and batch sizes for state of the art architectures trained on any dataset.
Refs:
[1] “Neural Mechanics: Symmetry and Broken Conservation Laws in Deep Learning Dynamics” (ICLR 2021) Daniel Kunin, Javier Sagastuy-Brena, Surya Ganguli, Daniel L.K. Yamins, Hidenori Tanaka
[2] “Pruning neural networks without any data by iteratively conserving synaptic flow” (NeurIPS 2020) Hidenori Tanaka, Daniel Kunin, Daniel L. K. Yamins, Surya Ganguli

第19回

日時: 1月28日10:30-11:30(JST)
発表者: James Halverson 氏 (Northeastern University, NSF AI Institute for Artificial Intelligence and Fundamental Interactions, co-organizes of Physics ∩ ML)
講演スライド
発表題目: Neural Networks and Quantum Field Theory
(ご講演は英語)
概要: We propose a theoretical understanding of neural networks in terms of Wilsonian effective field theory. The correspondence relies on the fact that many asymptotic neural networks are drawn from Gaussian processes, the analog of non-interacting field theories. Moving away from the asymptotic limit yields a non-Gaussian process and corresponds to turning on particle interactions, allowing for the computation of correlation functions of neural network outputs with Feynman diagrams. Minimal non-Gaussian process likelihoods are determined by the most relevant non-Gaussian terms, according to the flow in their coefficients induced by the Wilsonian renormalization group. This yields a direct connection between overparameterization and simplicity of neural network likelihoods. Whether the coefficients are constants or functions may be understood in terms of GP limit symmetries, as expected from ‘t Hooft’s technical naturalness. General theoretical calculations are matched to neural network experiments in the simplest class of models allowing the correspondence. Our formalism is valid for any of the many architectures that becomes a GP in an asymptotic limit, a property preserved under certain types of training.
[1] arXiv:2008.08601

第18回

日時: 1月14日10:30-11:30(JST)
発表者: 鈴木大慈 氏(東京大学大学院 情報理工学系研究科数理情報学専攻)
講演スライド
発表題目: 無限次元勾配ランジュバン動力学による深層学習の最適化理論と汎化誤差解析
概要: これまで統計的学習理論の枠組みにおいて深層学習の優位性が様々な 研究によって解明されてきたが,それらの多くはモデルの非凸性に起因 している.その意味で,深層学習の統計的な「良さ」を引き出すためには ,非凸最適化問題を避けることは難しいと考えられる.本講演では, 無限次元勾配ランジュバン動力学を用いて深層学習の非凸最適化問題を 解く手法を考察し,その汎化誤差を評価するための枠組みを提案する. 既存の平均場理論やニューラルタンジェントカーネル (NTK) といった 典型的な枠組みでは,大域的最適性を示すために横幅をサンプルサイズ に合わせて無限大まで漸近させる必要があった.本講演では,より自然な 解析を実現するために深層学習の最適化を無限次元ランジュバン動力学 の観点から解析し,その大域的最適性および汎化性能の解析を行う. 本枠組みを用いることで,横幅が有限の場合も無限の場合も統一的に扱え, さらに解がベイズ推定量に対応することから汎化誤差のバウンド及び 余剰誤差の速い収束レートが示せる.また,本手法によって得られた 推定量の予測誤差が任意の線形推定量を優越するような例が作れること も示し,深層学習の有用性を最適化の保証付きで示す.

2020年

第17回

日時: 12月10日10:30-11:30(JST)
発表者: 本間希樹 氏(国立天文台 水沢VLBI観測所)
発表題目: EHTによるブラックホールの撮像とスパースモデリング
概要:2019年4月、Event Horizon Telescope(EHT)プロジェクトによって、楕円銀河M87の中心にある巨大ブラックホールの影の写真が公表され、巨大ブラックホールの存在を示す視覚的な証拠として大きな話題となった。この写真は、世界中のミリ波電波望遠鏡を結ぶVLBI(Very Long Baseline Interferometry:超長基線電波干渉計)の観測手法を用いて撮影されたものである。電波干渉計の画像処理の基礎方程式は2次元フーリエ変換であるが、望遠鏡の台数が限られることから基礎方程式は劣決定となり、直接に逆フーリエ変換を実行することができない。このような問題を効率的に解くための手法として、我々はスパース性を制約として適切な解を得る「スパースモデリング」を用いて画像処理を行う解析手法を開発してきた。今回の講演では、電波干渉計によるブラックホール観測においてスパースモデリングや機械学習的なアプローチがどのように活用されているかについて紹介し、今後の展望についても合わせて述べたい。

第16回

日時: 11月26日10:30-12:00(JST)
入門講義「機械学習と物理」

第1部
発表者: 田中章詞 氏(RIKEN iTHEMS/AIP)
発表題目: 深層学習入門
講演スライド
概要:入門者向けにpythonの文法から深層学習フレームワークのミニマムな使い方の講義を行います。講義はgoogle colaboratoryを使って、実際にコードを触りながら行う予定です。

第2部
発表者: 富谷昭夫 氏(RIKEN BNL)
発表題目: ニューラルネットを使った2次元イジング模型の相検出
手順書
Jupyter notebook(github)
講演スライド
概要: 本講義では、tensorflow/kerasを用いてNature Physics掲載の論文[1] の結果であるニューラルネットを使った2次元イジング模型の相転移の検出をおこないます。統計力学の初歩程度の知識を仮定します。
[1] Juan Carrasquilla & Roger G. Melko, Nature Physics volume 13, pages431–434(2017)

第15回

日時: 11月12日10:30-11:30(JST)
発表者: 森貴司 氏(RIKEN CEMS)
講演スライド
発表題目: 深層学習の汎化の謎をめぐって
概要:現代的な深層学習の応用は,モデルに含まれるパラメータの数が訓練データのサンプル数よりも大きい,いわゆる過剰パラメータ領域 (overparameterized regime) でなされている.そのような領域で深刻な過剰適合 (overfitting) を示すことなく高い汎化性能が得られることは深層学習の大きな謎の一つである.この謎を理論的に解明しようとするときに重要だと思われる要素として,(i)モデルの特徴(ネットワークのタイプや深さ,広さなど),(ii)データの持つ構造(データの有効次元,局所性,対称性など),(iii)最適化アルゴリズムの特性(確率的勾配法などのダイナミクス)が挙げられる.

(i)として最も単純な全結合ニューラルネットを考えると,モデルを特徴づけるのは隠れ層の数(深さ)および各隠れ層のニューロン数(広さ)である.深さと広さのどちらかを増やすことによって過剰パラメータ領域に到達できるが,これまでの研究では主に広さを増やしていったときの影響が調べられてきた.特に広さ無限大の極限でNeural Tangent Kernel (NTK)の理論が得られ,大きな注目の的になっている.一方で,ネットワークを深くしていったときに汎化性能がどのように変化するかについては理論的に不明な点が多い.

私たちはネットワークの深さおよび広さが汎化にどのように影響するかを(ii)データの構造,特に分類ラベルの局所性の観点から調べた[1].その結果,ネットワークの深さが汎化に良い影響をもたらすかどうかは分類ラベルの局所性に依存することがわかった.さらに,ネットワークの広さを増やしていっても必ずしもNTKの結果に収束しないことを示唆する結果が得られた.本講演では深層学習の汎化の謎とその理論的解明に向けた最近の研究についてレビューし,上記の私たちの結果について説明する.時間がゆるせば(iii)の話題として,汎化性能を向上させるための確率的勾配法の改良についての私たちの最近の研究[2]についても簡単に紹介したい.

[1] Takashi Mori and Masahito Ueda, arXiv:2005.12488
[2] Takashi Mori and Masahito Ueda, arXiv:2009.13094

第14回

日時: 10月29日10:30-11:30(JST)
発表者: 野尻 美保子 氏(高エネルギー加速器研究機構)
講演スライド
発表題目: ミンコフスキー汎関数を用いた機械学習の提案
概要:LHCなどで行われているコライダー実験では深層学習の利用がさかんです。この中で、強い相互作用(QCD) によって作られるジェット(ハドロン束)がどのようなプロセスから作られたかを深層学習で分類する問題は、新現象の探索に成果をあげています。深層学習を使ったジェット画像分類は、QCDとしてよい IRC(Infrared collinear) safe な指標だけを使ったジェット分類とくらべて、パフォーマンスが良いことがしられていました。
今回のトークでは、ジェットの画像をミンコフスキー汎関数で一旦「測度空間」にマップした量(MS=Minkowski Sequence ) をIRC safe な量に加えた深層学習が、CNN による分類を超える結果をだすことを複数のベンチマークで示します。典型的なジェットの画像診断は、1000程度のinput を使いますが、新しい方法では、100 程度の情報しか使わないため、高速で安定した解析が可能です。MS は、CNN のフィルタリングアウトプットとして表現することができるため、CNNの画像診断には含まれていると考えるのが自然です。CNN のアウトプットにMS を追加することで、CNN がMS 以外の情報に集中させることが可能です。
深層学習を利用すると物理解析のパフォーマンスが向上する場合には、通常の解析では取り入れられていない相関が含まれていると考えるべきでしょう。我々の研究の場合は、QCD の非摂動的な量をミンコフスキー汎関数を用いて少数の量で表すことで、摂動的な量と非摂動的な量との相関を安定的に利用できるようにしたと解釈することができます。この研究では深層学習のパフォーマンスに満足するのではなく、よりよい特徴空間を発見することが重要であるということをあらためて感じました。今後の イベント生成パッケージの向上、新物理の発見等への応用を検討していますが、宇宙などでの深層学習や、一般的な画像解析への応用についてもご意見をいただければと思っています。
[1] M.Nojiri et al., to appear.
[2] Neural Network-based Top Tagger with Two-Point Energy Correlations and Geometry of Soft Emissions. Amit Chakraborty, Sung Hak Lim, Mihoko M. Nojiri, Michihisa Takeuchi. JHEP 07 (2020) 111, JHEP 20 (2020) 111 (https://arxiv.org/abs/2003.11787)
[3] 物理の人にはこれもよいと思います。K. R. Mecke, in Statistical Physics and Spatial Statistics, edited by K. R. Mecke and D. Stoyan (Springer Berlin Heidelberg, Berlin, Heidelberg, 2000) pp. 111–184.

第13回

日時: 10月15日10:30-11:30(JST)
発表者: Kazuhiro Terao 氏(SLAC スタンフォード国立加速器研究所)
講演スライド
(ご講演は英語) 発表題目: End-to-End, Machine Learning-based Data Reconstruction for Particle Imaging Neutrino Detectors
概要:With firm evidence of neutrino oscillation and measurements of mixing parameters, neutrino experiments are entering the high precision measurement era. The detector is becoming larger and denser to gain high statistics of measurements, and detector technologies evolve toward particle imaging, essentially a hi-resolution “camera”, in order to capture every single detail of particles produced in a neutrino interaction. The forefront of such detector technologies is a Liquid Argon Time Projection Chamber (LArTPC), which is capable of recording images of charged particle tracks with breathtaking resolution. Such detailed information will allow LArTPCs to perform accurate particle identification and calorimetry, making it the detector of choice for many current and future neutrino experiments. However, analyzing hi-resolution imaging data can be challenging, requiring the development of many algorithms to identify and assemble features of the events in order to reconstruct neutrino interactions. In the recent years, we have been investigating a new approach using deep neural networks (DNNs), a modern solution to a pattern recognition for image-like data in the field of Computer Vision. A modern DNN can be applied for various types of problems such as data reconstruction tasks including interaction vertex identification, pixel clustering, particle type and flow reconstruction. In this talk I will discuss the challenges of data reconstruction for imaging detectors, recent work and future plans for developing a full LArTPC data reconstruction chain using DNNs.

第12回

日時: 10月1日10:30-11:30(JST)
発表者: 樺島祥介 氏(東大理/知の物理学研究センター)
講演スライド
発表題目:スパース線形回帰に対する半解析的ブートストラップ法
概要:データからのパラメータ推定では必ず統計的なゆらぎが生じる. 古典的な推測統計学では,母集団分布と推定量の分布を「解析的に」関係づける ことで,得られた推定量の確からしさを定量的に評価する.これにより,与えられた 信頼度の下での幅をもたせた推定(=区間推定)や一定の有意水準の下での仮説の妥当性評価 (=統計的検定)が可能になる.残念ながら,こうした解析的アプローチが可能なのは, 正規分布からサンプリングされたデータからの平均値の推定など,単純な 状況の場合に事実上限られる.母集団を表現する分布がわからない場合,あるいは, わかっていても推定量が多次元の場合や導出に複雑な手続きを要する場合には 推定量がしたがう分布を解析的に導くことは難しい. とはいえ,推定結果の不確実性を評価することはどのような場合であっても重要である. ブートストラップ法はこうした困難に対する有力な対処法である. この方法では,手元にあるデータが表す経験分布を母集団とみなす``plug-in principle’‘にしたがい, 経験分布からの復元抽出によって得られるデータに対する推定を何度も繰り返す こと(=リサンプリング)で推定量の分布を「数値的に」評価する. ブートストラップ法はほぼすべての統計的推定/機械学習の方法に適用できる一方で, リサンプリングに要する計算量がボトルネックになっている. 我々は,ランダム系の統計力学で発展した解析法であるレプリカ法と平均場近似を 組み合わせることで,スパース推定の代表的な方法であるleast absolute shrinkage and selection operator (LASSO)に対し,リサンプリングを行うことなく,推定量の分布を 評価する近似法を開発した[1,2].その内容について紹介する.
[1] T. Obuchi and Y. Kabashima, Semi-Analytic Resampling in Lasso, Journal of Machine Learning Research 20 (70), 1-33 (2019)
[2] T. Takahashi and Y. Kabashima, Semi-analytic approximate stability selection for correlated data in generalized linear models, arXiv:2003.08670; to appear in Journal of Statistical Mechanics: Theory and Experiment

第11回

日時: 9月17日10:30-11:30(JST)
発表者: 藤井啓祐 氏(阪大基礎工)
発表題目:NISQ (Noisy Intermediate-Scale Quantum technology) マシンを用いた量子機械学習
講演スライド
講演概要: 近年、GoogleやIBMなどの巨大IT企業が量子コンピュータの開発競争を繰り広げている。昨年Googleは、50量子ビットを超えるサイズの量子コンピュータを実現し、特定のタスクにおいてスーパーコンピュータよりも圧倒的に速く計算ができることを実証した。しかしながら、素因数分解など高速性が証明されている複雑な量子アルゴリズムの実行には、量子コンピュータの規模がまだ小さくノイズレベルも高い。このような、ノイズを含む小・中規模の量子コンピュータは、NISQ(Noisy Intermediate-Scale Quantum technology)と呼ばれている。このNISQマシンを、機械学習、量子化学計算、最適化などに応用するための研究が現在盛んに進められている。本セミナーでは、このような量子コンピュータを取り囲む現状を紹介し、NISQマシンを機械学習へと応用する、量子機械学習について紹介する。特に、量子ダイナミクスを用いて時系列データ処理を行う、量子レザバー計算[1]や、量子回路をモデルとして教師あり学習を行う量子回路学習[2]、そして、量子状態に特徴量を埋め込み量子コンピュータを用いてカーネルを推定する量子カーネル推定法[3]について、我々の研究も交えてご紹介する。

[1] K. Fujii and K. Nakajima “Harnessing Disordered-Ensemble Quantum Dynamics for Machine Learning”, Phys. Rev. Applied 8, 24030 (2017).
[2] K. Mitarai, M. Negoro, M. Kitagawa, and K. Fujii, “Quantum Circuit Learning”, Phys. Rev. A 98, 032309 (2018).
[3] T. Kusumoto, K. Mitarai, K. Fujii, and M. Kitagawa, and M. Negoro, “Experimental quantum kernel machine learning with nuclear spins in a solid”, arXiv:1911.12021.

第10回

日時: 9月3日10:30-11:30(JST)
発表者: 斎藤弘樹 氏(電気通信大学基盤理工学専攻)
発表題目:強化学習を用いたボース・アインシュタイン凝縮体の制御
講演スライド
講演概要: 強化学習とは、「エージェント」がある「環境」の中で行動し「報酬」を受け取るという過程を経ながら、最適な行動を選択できるように学習するという、機械 学習の一手法である。最も有名な応用例は、囲碁で人間を打ち負かしたAlphaGoだろう。そこでは Deep-Q learning と呼ばれる、強化学習に深層ニューラルネットワークを組み入れた手法が使われている。最近、Deep-Q learning を物理の問題に応用するという研究も盛んに行われている。本講演では、超低温原子気体のボース・アインシュタイン凝縮体(BEC)のダイナミクスの制御に Deep-Q learning を応用した例を紹介する[1]。外部ポテンシャルによってBECをかき回すと、量子渦が生成されることが知られているが、Deep-Q learning によって外部ポテンシャルの動きを学習させ、望みの状態の量子渦が生成できることを示す。
[1] H. Saito, J. Phys. Soc. Jpn. 89, 074006 (2020)

第9回

日時: 8月20日10:30-11:30(JST)
講演者: 林祐輔 氏(Japan Digital Design, Inc. ただし講演は個人としての活動)
講演題目: 表現学習の熱力学:深層生成モデルの物理法則を求めて
講演スライド
講演概要: 本講演では,深層生成モデルを熱力学と結びつけるいくつかの研究について紹介する.ベイズ統計と熱力学には形式的アナロジーが成り立つことが知られている[1].その核にあるのは,ベイズ統計における損失関数が,熱力学における自由エネルギーと対応するというアイディアである.近年ではこのアナロジーを深層生成モデルにあてはめて,訓練が終了して平衡状態に落ち着いた深層生成モデルに対して熱力学第一法則や第二法則に相当するものが成り立つことを調べた研究がある[2].ここでも損失関数として自由エネルギーが登場し,完全な熱力学関数のように振る舞う.しかし,このままでは損失関数と自由エネルギーの対応はアナロジーの域を出ず,統計的学習の背後にあるはずの学習プロセスを拘束する諸条件,“物理法則”に相当するものがみえてこないと講演者は感じている.深層生成モデルについて熱力学第一法則や第二法則以上の拘束条件は見出せないのだろうか?最近になって深層生成モデルを使った転移学習のプロセスに,準静的過程のアナロジーを持ち込んだ研究があらわれた[3].深層生成モデルの損失関数は再構成誤差項や正則化項,分類誤差項などの要素からなるが,これらを温度にみたてて“等温準静的過程”を考えるのである.このような“熱力学的操作”を考えることで,損失関数の特定の要素の値を一定に保つ転移学習を行うことができる.この熱力学的操作を組み合わせればサイクルを考えることができ,その最大熱効率を与えるサイクルがカルノーサイクルであることを示すことができる.これは非平衡過程を含む転移学習プロセスの一つの拘束条件になっている.
[1] Sumio Watanabe, Mathematical Theory of Bayesian Statistics, CRC Press (2018)
[2] Alemi and Fischer, TherML: Thermodynamics of Machine Learning, arXiv:1807.04162 (2018)
[3] Gao and Chaudhari, A Free-Energy Principle for Representation Learning, ICLR Workshop Integration of Deep Neural Models and Differential Equations (2020)
[4] Hideaki Shimazaki, Neural Engine Hypothesis (Dynamic Neuroscience pp267-291), Springer (2017)

第8回

日時: 8月6日10:30-11:30(JST)
発表者: 野村悠祐 氏(理研CEMS)
発表題目: ボルツマンマシンを用いた量子多体波動関数表現:深層ボルツマンマシンによる厳密な表現と制限ボルツマンマシンによる数値的近似表現
講演スライド
概要: 指数関数的に大きな次元を持つ量子多体系の波動関数を有限個のパラメータで精度よく表すことは、物性物理のみならず素粒子、原子核、量子化学などに共通するグランドチャレンジである。本講演では機械学習で用いられるボルツマンマシンが量子多体波動関数表現に有用であることを紹介する。まず隠れ層が二層ある深層ボルツマンマシン(DBM)を用いて基底状態の波動関数を任意の精度で解析的に表現することが可能であることを示す[1]。これは経路積分を包含するより一般的な量子古典対応のフレームワークを提供するが、物理量計算に隠れ層自由度をモンテカルロサンプリングする必要性があるため負符号問題が生じる場合がある[1]。一方で、隠れ層が一層に制限された制限ボルツマンマシン(RBM)では、DBMのように解析的な表現はできないものの、数値的にパラメータを最適化することで、量子多体波動関数の表現が可能になる。RBMの良いところは解析的に隠れ層自由度をトレースアウトできるところであり、量子系の数値計算を行う上では負符号問題を回避できる点でDBMより利点がある場合がある。RBMを用いた手法は、フェルミオン系、フェルミオン-ボソン結合系、フラストレーションのあるスピン系な度への適用が進んでおり、それら一連の研究について紹介する[2-4]。
[1] G. Carleo, Y. Nomura, and M. Imada, Nat. Commun. 9, 5322 (2018)
[2] Y. Nomura, A. S. Darmawan, Y. Yamaji, and M. Imada, Phys. Rev. B 96, 205152 (2017)
[3] Y. Nomura, J. Phys. Soc. Jpn. 89, 054706 (2020)
[4] Y. Nomura and M. Imada, arXiv:2005.14142

第7回

日時: 7月30日10:30-11:30(JST)
発表者: 本武陽一 氏(統計数理研究所)
講演スライド
発表題目: 物理学者と学習機械の効果的な協業に向けて:学習済み深層ニューラルネットワークからの解釈可能な物理法則抽出
概要: 本講演では、力学系時系列データを学習した深層ニューラルネットワーク(DNN)から、解釈可能な物理則を抽出する手法を提案する[1]。 物理学は科学者の物理的洞察力によって大きく発展してきたが、アクティブマタや磁性体の磁区構造といった複雑な秩序構造を持つ系で洞察力を働かせることは時に困難である。これに対して、深層学習を始めとした複雑な高次元データをモデル化できる機械学習を用いた物理モデル構築手法の開発が近年活発に研究されている[1]。我々は、複雑なデータの内挿的モデル構築を得意とする機械学習と、物理的洞察によって大胆な理論の外挿を実現できる科学者の協業を実現することが重要と考え、これに繋がり得る手法を開発した。具体的には、物理データを学習したDNNから解釈可能な物理情報を抽出し科学者に提供することを目標として、有限自由度古典ハミルトン力学系とみなせる時系列データを学習したDNNから、系の隠れた保存則を推論する新しい手法を開発した。手法は、Noetherの定理と効果的なサンプリング法を元にDNNから力学系の対称性を抽出することで保存則を推論する。手法でDNNに課される前提は、学習に成功したDNNで広く成り立つと考えられている多様体仮説[3,4]のみであるため、手法は広範なDNNモデルに適用可能と考えられる。講演では、安定状態にある生物の集団運動を模擬した時系列データに提案手法を適用した事例等を紹介する。

[1] Interpretable Conservation Law Estimation by Deriving the Symmetries of Dynamics from Trained Deep Neural Networks, Y. Mototake, arXiv:2001.00111.
[2] Hamiltonian neural networks, G. Samuel, M. Dzamba, and J. Yosinski, NeurIPS 2019 (arXiv:1906.01563).
[3] Representation Learning: A Review and New Perspectives, Y. Bengio, C. Aaron, and V. Pascal, IEEE Trans. Pattern Anal. Mach. Intell., 35.8 (2013): 1798-1828.
[4] Efficient representation of low-dimensional manifolds using deep networks, R. Basri and D.W., Jacobs, ICLR 2017 (arXiv:1602.04723).

第6回

日時: 7月9日10:30-11:30(JST)
発表者: 吉岡信行 氏(理研)
発表題目: ニューラルネットワークで探る量子多体系の表現
講演スライド
従来より高い表現能力を持つことが知られていたニューラルネットワークは、近年の計算資源の向上・最適化手法の発達により、多くの機械学習タスクにおいて成功を収めている。 さらに、画像・音声などといった古典データに限らず、量子多体系の基底状態・励起状態などの表現に対しても有効であることが示された [1]。 次元性に依拠しない変分関数の構造は、量子多体系の大規模計算において用いられてきたテンソルネットワークと相補的に活用されることで、 多体現象の研究のフロンティアを押し拡げる役割を担うことが期待されている。 本講演では、ボルツマンマシンと呼ばれる種類のニューラルネットワークを導入し、その性質・応用について概観したのち、 講演者らによって見出された、開放量子多体系への適用可能性について議論する [2, 3]。

[1] G. Carleo and M. Troyer, Science 355, 602 (2017).
[2] N. Yoshioka and R. Hamazaki, Phys. Rev. B 99, 214306 (2019).
[3] N. Yoshioka et al., in preparation.

第5回

日時: 6月25日10:30-11:30(JST)
発表者: 福嶋健二 氏(東京大学)
発表題目: 物理学における観測と機械学習:中性子星の事例
講演スライド
概要: 学習、特に教師あり学習や強化学習とは、一言で表せば、最適化問題を解くということである。物理学は古来、最適化問題の効率向上に心血を注いできた学問であり、機械学習との親和性は高い。物理学における実験データの回帰分析に機械学習を応用するのは自然な発想だろう。例えば高エネルギー物理学ではジェットの識別に機械学習がその威力を発揮していることはよく知られている。しかし物理学の多くの回帰分析では、誤差のついたデータから誤差をつけたデータを引き出す必要があり、学習モデルはインプットが真値からずれている、ということも適切に学習せねばならない。本講演では中性子星の観測データから状態方程式を構築する問題を具体的な事例として採り上げ[1,2]、ひとつのアプローチ法を提案する。最後に、観測誤差を取り入れた学習が、ニューラルネットワークの重みの初期値依存性問題と密接に関係していることを議論する。
[1] Y. Fujimoto, K. Fukushima, K. Murase, Phys.Rev.D 98 (2018) 2, 023019
[2] Y. Fujimoto, K. Fukushima, K. Murase, Phys.Rev.D 101 (2020) 5, 054016

第4回

日時: 2020年6月18日10:30-11:30(JST)
発表者: 唐木田 亮 氏(産総研)
発表題目: 深層学習の数理: 統計力学的アプローチ

登録フォーム

講演スライド

概要: 本講演では, 深層学習の数理的な理解を目的とした近年の統計力学的解析を紹介する. 具体的には, 深層学習の平均場理論, ランダム行列理論, さらにNeural Tangent Kernel (NTK)理論をとおして学習ダイナミクスの理解へとつながる一連の流れを解説する. 深層学習では, 性能の理論的な保証や, 最適なモデルや学習手法の設定に多くの課題があり, 数理的な研究が日進月歩で進んでいる. その中で統計力学的なアプローチは, 深層学習におけるパラメータ初期値がランダム行列であること, モデルの大自由度極限(ニューラルネットワーク各層の”幅”が十分に大きいこと)に着目した枠組みで, 様々なモデルアーキテクチャに普遍的に適応できる点に特徴がある. 平均場理論は, 勾配の大きさを巨視的変数として定式化することで, 訓練が進みやすいモデルとパラメータの設定を相転移によって定量的に説明する[1]. NTK理論は, 初期値まわりの摂動の範囲で学習が進む設定があることを発見し, 学習の大域収束と汎化性能に一定の理解を与える[2]. 本講演ではこのような統計力学的アプローチを, 歴史的な背景も含めつつ簡単に概観したい. また, このアプローチを使うことで, 再急降下法のハイパーパラメータ(学習率)の設定指針[3]やBatch NormalizationとLayer Normalizationの効果の違い[4]のようなアルゴリズムの問題に対して, 定量的な説明を与えられることも紹介する.

[1] Deep information propagation. Samuel S Schoenholz, Justin Gilmer, Surya Ganguli and Jascha Sohl-Dickstein, ICLR 2017 (arXiv:1611.01232).
[2] Neural tangent kernel: Convergence and generalization in neural networks. Arthur Jacot, Franck Gabriel and Clément Hongler, NeurIPS 2018 (arXiv:1806.07572).
[3] Universal Statistics of Fisher Information in Deep Neural Networks: Mean Field Approach. RK, Shotaro Akaho and Shun-ichi Amari, AISTATS 2019 (arXiv:1806.01316).
[4] The Normalization Method for Alleviating Pathological Sharpness in Wide Neural Networks. RK, Shotaro Akaho and Shun-ichi Amari, NeurIPS 2019 (arXiv:1906.02926).

第3回 

第三回(6/11)は、ライトニングトークで構成されます。
日時: 2020年6月11日10:30-11:30(JST)
発表者:希望者

講演者: 野村悠祐 氏(理研CEMS)
講演題目: 深層ボルツマンマシンを用いた量子多体波動関数の厳密な構築
講演概要: 量子多体系の波動関数を深層ボルツマンマシンを用いて厳密に表現する方法を紹介する(Carleo, Nomura, Imada, Nature Communications 2018)。

講演スライド

講演者: 林祐輔 氏(Japan Digital Design, Inc. ただし講演は個人としての活動)
講演題目: 表現学習の確率熱力学的解釈
講演概要: 表現学習とは,画像,音声,自然言語,時系列データといった多様な生データから,目的のタスクを解くために意味のある特徴量を生成する方法を,統計モデル自身に考えさせるアプローチのことを指す.この発表では,表現学習と確率熱力学の間にアナロジーが成り立つことを紹介し,準静的過程に対応する熱力学的操作が転移学習のようなデータのドメインを跨ぐ学習において有用であることを説明する.

講演スライド

講演者: 北沢正清 氏(大阪大学)
講演題目: SU(3)非可換ゲージ理論のトポロジー分類への機械学習の適用
講演概要: 4次元畳み込みニューラルネットワークを用いて、SU(3)非可換ゲージ理論の多次元データを学習し、トポロジカル電荷を推定した。99%という高い正答率を得た成果などを報告する。

講演スライド

講演者: 大塚啓 氏(KEK)
講演題目: 深層学習を用いた弦理論のランドスケープ
講演概要: 本講演では、背景磁場のあるCalabi-Yau 多様体上にコンパクト化されたヘテロ型弦理論に対して、深層学習の一種であるオートエンコーダーによる次元削減とクラスタリングを適用する。 特に、フェルミオンの世代数と余剰次元空間の曲率に強い相関があることを紹介する[1]。[1] H. Otsuka and K. Takemoto, JHEP 05 (2020), 047.

講演スライド

講演後には、参加者に「さらに詳しく聞きたい講演」についてのアンケートを実施し、そのアンケート結果をもとに、今後のオンラインセミナーの講演を決めていこうと考えています。

発表希望者用フォーム

参加希望者(発表なし)用フォーム

ライトニングトークの構成は以下の通りです:
 1)ご講演は3-10分間、その後の質疑応答は2分間、合計で5-15分間となります。
  (講演時間が終了すると座長から終了のお知らせがありますのでご協力お願いします)
 2)スライドはpdf (pptもしくはkeynote)数枚です。
   講演タイトルと所属、お名前、メールなどの連絡先を記載ください。
   見本として次のものをご参考に。
 3)講演+質疑時間の5分間が終了した後は、チャット機能で、参加者からの質問にお答えください。
 4)ご講演タイトル(仮)を、上記登録フォームで記入ください。
発表者希望者の締切は6/9の夜11時とします。
発表内容は、ご自身あるいは共同研究者のオリジナルな研究に限ります。

第2回

日時: 2020年5月28日10:30-11:30(JST)
発表者: 橋本幸士 氏(大阪大学)
発表題目: 深層学習と時空

登録フォーム

講演スライド

概要: 本講演では、深層ニューラルネットワークを時空とみなせるかどうかについて、議論する。特に、量子重力理論として研究が進むホログラフィー原理そのものを深層学習とみなす手法について紹介する。 学習されたニューラルネットワークの解釈可能性は、機械学習を物理学に応用する際に最も重要な観点の一つである。ニューラルネットワークの構造を対称性などにより規定することで制約を加え解釈可能にすることは学習を効率的にすることにつながっている。一方で、深層ボルツマンマシンはそもそもスピン系が原子配列しているものの一般化と考えられることから、ニューラルネットワークそのものが時空として機能している例が存在している。このような中で、量子重力理論と機械学習の融合を目指す研究が生まれた。この20年間の量子重力理論の研究において、最も重要な位置を占めているのはホログラフィー原理[1]であり、そこでは、量子重力理論と等価な、重力を含まない(時空次元の低い)量子系が存在し、重力の時空はそこから創発する。このホログラフィー原理で創発する時空を、教師つき学習の深層ニューラルネットワークと同一視し、時空のメトリックを重みと考えることで、創発時空を量子系のデータから決定する手法[2][3][4]を本講演では紹介する。

[1] The Large N limit of superconformal field theories and supergravity Juan Martin Maldacena Published in: Int.J.Theor.Phys. 38 (1999) 1113-1133, Adv.Theor.Math.Phys. 2 (1998) 231-252 • e-Print: hep-th/9711200 [hep-th]
[2]Deep learning and the AdS/CFT correspondence Koji Hashimoto, Sotaro Sugishita, Akinori Tanaka, Akio Tomiya Published in: Phys.Rev.D 98 (2018) 4, 046019 • e-Print: 1802.08313 [hep-th]
[3] Deep Learning and Holographic QCD Koji Hashimoto, Sotaro Sugishita, Akinori Tanaka, Akio Tomiya Published in: Phys.Rev.D 98 (2018) 10, 106014 • e-Print: 1809.10536 [hep-th]
[4] Deep Learning and AdS/QCD Tetsuya Akutagawa, Koji Hashimoto, Takayuki Sumimoto e-Print: 2005.02636 [hep-th]

第1回

日時: 2020年5月14日10:30-11:30(JST)
発表者: 永井佑紀 氏(原子力機構)
発表題目: 精度保証された機械学習分子動力学法:自己学習ハイブリッドモンテカルロ法

登録フォーム

講演スライド

概要: 本講演では、2008年に開発された機械学習分子動力学法について解説するとともに、学習精度に計算精度が依存しない機械学習シミュレーションである自己学習ハイブリッドモンテカルロ法について紹介する。
第一原理計算で得られたポテンシャルを再現するようなニューラルネットワーク(ANN)を構築して分子動力学を実行するのが機械学習分子動力学法である。ANNを構築する際の最適なトレーニングデータは、元々の第一原理分子動力学法で生成される原子配置とそのポテンシャルである。しかしながら、第一原理分子動力学法の計算負荷が高いために機械学習分子動力学法を用いるのであるから、元々の第一原理分子動力学法でデータを集めるのは本末転倒である。そのため、通常は、様々な原子配置とそのポテンシャルデータを大量に作成することで、目的の機械学習分子動力学法と同じようなポテンシャルを生成するANNを構築している。しかしながら、構築されたANNが元々の第一原理計算のポテンシャルを再現するという保証はない。さらに、4元素以上で構成されるような系の場合には、長時間の機械学習分子動力学法では計算が不安定になることがあり、機械学習分子動力学法の計算の精度や妥当性については常に慎重な議論が必要であった。
本講演では、自己学習モンテカルロ法のアイディア[1]を用いることで、得られた結果が統計的に厳密にオリジナルの第一原理計算分子動力学法の計算結果と等しい手法を開発したことを報告する[2]。 そして、その手法を用いて、4元素系でも精度よく計算ができることを示すため、フォノン誘起超伝導体YNi2B2Cのフォノン計算の結果を報告する。

[1] J. Liu, Y. Qi, Z. Y. Meng, and L. Fu, Phys. Rev. B 95, 041101(R) (2017).; J. Liu, H. Shen, Y. Qi, Z. Y. Meng, and L. Fu, Phys. Rev. B 95, 241104(R) (2017).; YN, H, Shen, Y. Qi, J. Liu, and L. Fu, Phys. Rev. B 96, 161102(R) (2017)
[2] YN, M. Okumura, K. Kobayashi and M. Shiga, arXiv:1909.02255