拓扑周报 2026-01-29

Topology
AI4Math
ArXiv
本周低维拓扑与 AI+数学交叉领域的 ArXiv 更新
Published

January 29, 2026

本周论文

核心拓扑 (math.GT)

本周暂无 4-manifold、Khovanov homology、trisection 等核心关键词的论文更新。


AI + 数学交叉

本周 AI + 数学交叉领域有不少有趣的工作,挑选几篇与拓扑/几何关联较强的来解读:

1. ⭐ 重点关注: Generalizable Equivariant Diffusion Models for Non-Abelian Lattice Gauge Theory

  • 作者: Gert Aarts, Diaa E. Habibi, Andreas Ipp 等
  • 链接: arXiv:2601.19552
  • 解读:
    • 动机: 格点规范理论的 Monte Carlo 模拟计算量巨大,尤其在大格点和弱耦合极限下。这篇文章想用扩散模型来加速采样,同时保持物理上的规范对称性。
    • 几何直观: 关键在于网络架构尊重格点上的局部规范变换——想象每个格点上有一个 U(2) 或 SU(2) 的”旋钮”,物理量(如 Wilson loop)不依赖于你怎么转这些旋钮。他们的 L-CNN 架构把这种对称性硬编码进去,使得生成的构型自动满足规范不变性。有趣的是,模型能泛化到更大的格点尺寸,这暗示它学到了某种”局部”的几何结构。

2. Smooth embeddings in contracting recurrent networks driven by regular dynamics

  • 作者: Vikas N. O’Reilly-Shah, Alessandro Maria Selvitella
  • 链接: arXiv:2601.19019
  • 解读:
    • 动机: 为什么训练好的 RNN 内部会自发形成保持拓扑结构的表示?这篇文章试图给出理论解释。
    • 几何直观: 考虑一个在圆环或环面上的动力系统驱动 RNN。文章证明在收缩性条件下,同步映射是一个光滑嵌入——也就是说,RNN 的隐状态空间里会”长出”一个与输入流形同胚的子流形。这是一个漂亮的结果:神经网络不是在”记忆”输入,而是在内部重建了输入空间的拓扑结构。

3. Critical Organization of Deep Neural Networks, and p-Adic Statistical Field Theories

  • 作者: W. A. Zúñiga-Galindo
  • 链接: arXiv:2601.19070
  • 解读:
    • 动机: 深度神经网络的层级结构天然具有树状拓扑,而 p-进数正是描述这种层级结构的数学语言。
    • 几何直观: 把 DNN 的层级结构编码为 p-进树,然后研究热力学极限下的相变行为。在参数空间的某个临界面上,网络从唯一稳态分裂成无穷多个稳态——这是一种”临界组织”现象。用 p-进分析的视角看神经网络,这个角度挺新颖的。

4. A Dynamic Framework for Grid Adaptation in Kolmogorov-Arnold Networks

  • 作者: Spyros Rigas 等
  • 链接: arXiv:2601.18672
  • 解读:
    • 动机: KAN 网络用样条函数逼近,节点分布很关键。现有方法只看输入数据密度,忽略了目标函数的几何复杂度。
    • 几何直观: 他们提出用曲率来指导节点分配——函数弯曲厉害的地方多放节点。这是一个很自然的微分几何想法:用更多的”采样点”来捕捉高曲率区域的细节。

发现

本周数学家: Ciprian Manolescu (Stanford)

Ciprian Manolescu 是当代低维拓扑领域最具影响力的数学家之一。他最著名的工作是在 2013 年否定了高维三角化猜想:证明存在不能被三角剖分的高维流形。

这个结果的证明用到了他发展的 Pin(2)-等变 Seiberg-Witten Floer 同调理论。简单来说,他构造了一个新的流形不变量,能够探测到某些”阻碍”三角化的拓扑性质。这个工作不仅解决了一个经典问题,还为 Floer 理论提供了新的工具。

近年来他也在 Khovanov 同调和纽结不变量方面有重要贡献,特别是与 AI 结合的方向。

  • 主页: https://web.stanford.edu/~cm5/

推荐阅读

The n-Category Café - https://golem.ph.utexas.edu/category/

本周推荐这个范畴论视角的数学博客。考虑到本周有几篇论文涉及神经网络的拓扑结构(RNN 中的嵌入、p-进树结构),n-Category Café 上关于 TQFT 和范畴化的讨论可能会给你一些启发。特别是如果你对 Khovanov 同调的范畴化背景感兴趣,这里有很多深入的讨论。