Files
Literature/Artificial-Intelligence/different-areas.md
2025-11-09 17:30:23 +08:00

18 KiB
Raw Permalink Blame History

太好了 😎——那我们就来做一个真正系统的「深度学习冷门大模型探索路线图」,帮你从熟悉的深度学习世界,逐步“解锁隐藏分支”,直到能理解像 BNN、SCM、PFN、Neural ODE、PINN 这样在研究圈非常前沿的模型。


🌌 深度学习冷门大模型探索路线图

目标:理解深度学习的多种“哲学流派”,从确定性到概率、因果、推理、物理与元学习。


🧩 第一阶段:基础复盘(已掌握者可快速跳过)

目标:明确普通深度学习的假设与局限。

内容 代表模型 核心思想 推荐学习资料
感知网络 MLP / CNN / RNN 固定结构 + 点估计权重 《Deep Learning》 by Goodfellow
表征学习 AutoEncoder / UNet / ViT 压缩–还原–表征 Coursera: DeepLearning.ai Specialization
生成模型 VAE / GAN / Diffusion 建模数据分布 LilLog Diffusion Illustrated + VAE论文

💡 过渡问题

神经网络能输出“最可能”的结果,但不告诉我有多确定,也无法回答“为什么”。


🎲 第二阶段概率与贝叶斯世界BNN家族

目标:从「确定参数」过渡到「参数分布」,理解模型不确定性。

模型 思想 推荐资料 实践
BNN (Bayesian Neural Network) 权重服从分布,输出为分布 Yarin Gal: Bayesian Deep Learning Lecture Pyro Tutorial: Bayesian Neural Net
Gaussian Process (GP) 无限宽BNN的极限形式 Rasmussen: Gaussian Process for ML sklearn GaussianProcessRegressor
Deep GP / SWAG / SGLD 深层GP与贝叶斯近似 Kevin Murphy: PML Advanced Topics PyTorch SWAG repo
Probabilistic Programming (PyMC, Pyro, TFP) 用语言描述分布与推断 PyMC docs / Pyro tutorials 设计一个贝叶斯线性回归

📘 重点掌握:

  • Variational Inference (VI)
  • MCMC 与 SGLD
  • 不确定性估计、可信区间

💡 过渡问题

如果我知道分布,我能理解“哪些是相关的”吗?→ 进入因果世界。


🔗 第三阶段因果与结构模型SCM家族

目标:理解「为什么」某事件会发生,而不仅是相关性。

模型 思想 推荐资料 实践
Bayesian Network 概率图模型,变量依赖结构 Barber: Bayesian Reasoning pomegranate / pgmpy
SCM (Structural Causal Model) 建模因果方向与干预 Judea Pearl: The Book of Why DoWhy Tutorial
NOTEARS / DAG-GNN 用可微优化学习因果图 NOTEARS: Nonlinear Optimization for DAG Learning (NeurIPS 2018) 官方实现
CausalVAE / CausalDiffusion 在生成模型中引入因果结构 Causal Representation Learning papers pytorch-struct-causal repo

📘 重点掌握:

  • 因果图 (DAG)、do-calculus
  • 反事实推断 (Counterfactual Inference)
  • 因果发现(从数据中学习结构)

💡 过渡问题

因果模型解释了关系,但神经网络不解释物理规律,怎么办?→ 转入科学建模方向。


⚙️ 第四阶段连续动力学与物理建模ODE/PINN家族

目标:理解“连续系统”,让网络符合物理定律。

模型 思想 推荐资料 实践
Neural ODE (Chen et al., NeurIPS 2018) 网络=微分方程的解 官方论文 + Distill解释 torchdiffeq
Neural SDE / Neural PDE 含噪声或偏微分的系统 Neural SDEs for Stochastic Dynamics jax-sde
PINN (Physics-Informed NN) 把物理方程作为Loss约束 Karniadakis: Physics-informed ML DeepXDE / Modulus
FNO (Fourier Neural Operator) 学函数到函数的映射 Fourier Neural Operator for PDEs Official FNO repo

📘 重点掌握:

  • 常微分方程 (ODE)
  • 偏微分方程 (PDE)
  • 保守律Hamiltonian/Lagrangian NN

💡 过渡问题

我能让网络自动适应不同任务、甚至自己设计结构吗?→ 进入元学习与自动建模。


🧬 第五阶段元学习与自适应PFN家族

目标:让模型“学会学习”。

模型 思想 推荐资料 实践
MAML (Model-Agnostic Meta-Learning) 优化初始参数以快速适应 Finn et al. (ICML 2017) learn2learn库
Reptile / ProtoNet / Meta-SGD 元优化的不同实现 Papers with Code few-shot repo
HyperNetwork / MetaNet 生成其他网络的参数 Ha et al. (ICLR 2017) keras HyperNetwork demo
PFN (Prior-Data Fitted Network) Transformer学“贝叶斯更新” Prior-Data Fitted Networks (ICML 2022) 官方TabPFN repo
BayesFlow / DeepSets Meta-Inference 近似学习贝叶斯推断分布 BayesFlow paper BayesFlow库

📘 重点掌握:

  • Meta-learning loop
  • Few-shot learning
  • Transformer-based inference

💡 过渡问题

如果模型能学习、能推理、能自适应,那下一步是?→ 通往通用推理AINeuro-Symbolic


🧠 第六阶段符号推理与神经逻辑NeSy家族

目标:结合神经与逻辑,向“解释与推理”进化。

模型 思想 推荐资料 实践
Neuro-Symbolic Networks (NeSy) 神经网络 + 逻辑规则 Garcez et al. Neural-Symbolic Learning Systems NeSy workshop papers
DeepProbLog / Logic Tensor Network 可微逻辑推理网络 DeepProbLog paper 官方实现
Neural Theorem Prover / LNN 推理符号与嵌入的结合 NTP, LNN papers pytorch-logic repo
Probabilistic Logic Programming (PLP) 逻辑+概率+神经 ProbLog / PyProbLog 实验性框架

📘 重点掌握:

  • 一阶逻辑与概率图
  • 可微逻辑 (Differentiable Logic)
  • 神经推理机制

💡 最终目标:

拥有能“看、想、信、学”的统一智能体系。


🧭 总体路线图(结构图)

[常规DL]
  ↓
[生成模型 (VAE/GAN/Diffusion)]
  ↓
[概率贝叶斯 (BNN/GP)]
  ↓
[因果结构 (SCM/DAG-GNN)]
  ↓
[物理建模 (ODE/PINN/FNO)]
  ↓
[元学习 (PFN/MAML)]
  ↓
[神经逻辑 (NeSy/DeepProbLog)]

🧰 附录:推荐阅读 & 资源索引

类型 名称 难度
📘 Bayesian Reasoning and Machine Learning Barber ★★★
📘 Probabilistic Machine Learning Kevin Murphy ★★★★
📘 The Book of Why Judea Pearl ★★
📘 Physics-Informed Machine Learning Karniadakis ★★★
📘 Neural-Symbolic Learning Systems Garcez ★★★
📄 论文 Prior-Data Fitted Networks (ICML 2022) ★★★
📄 论文 Neural ODE (NeurIPS 2018) ★★★
💻 实践 Pyro / PyMC / DoWhy / DeepXDE / learn2learn / BayesFlow 实操型

我可以进一步帮你把这份路线细化成一个“全年学习规划” 比如:

  • 每两个月掌握一层;
  • 每阶段附带阅读论文 + 实作项目;
  • 每个模型配套“最短入门代码与实验目标”。

是否希望我帮你做成这样一份「冷门大模型全年学习路线图」(时间+资源+目标形式)?

非常好的问题 👏——你已经在从“常见的深度学习框架”过渡到“模型宇宙的隐藏分支”。

答案是:有,而且非常多! 在主流CNN、Transformer、Diffusion之外其实存在一整片「被冷门化但极具思想深度」的模型森林。这些模型通常出现在 学术研究理论探索特定科学应用 中,虽然不常见,但各自代表了不同的哲学方向。


🌌 一、从BNN往外扩冷门但重要的“大模型”家族总览

方向 模型/体系 简介 为什么值得了解
🧠 贝叶斯+概率方向 BNN (Bayesian Neural Network) 给权重加分布,预测带置信区间 学会“不确定性”
Deep Gaussian Process (DGP) 多层高斯过程类似“无限深BNN” 理论上可解释但训练困难
BayesFlow / Deep Probabilistic Programming 结合Flow与BNN的概率模型 新兴趋势类似PFN理念
Deep Ensembles / SWAG / Laplace Approximation 近似BNN的实用替代方案 工业中可行的不确定性估计
🔍 因果与结构方向 SCM (Structural Causal Model) 学变量间的因果依赖 探究“为什么”而不是“是什么”
CausalVAE / CausalDiffusion 把因果嵌入到VAE或扩散模型 新兴因果生成方向
NOTEARS / DAG-GNN 学因果图结构的神经网络 结合图结构与可微优化
🌿 符号与逻辑方向 Neuro-Symbolic Networks (NeSy) 把神经网络与逻辑规则结合 AI+逻辑通往AGI的路线之一
Logic Tensor Network / DeepProbLog 在网络中直接推理逻辑语句 可解释性强,应用于推理任务
⚙️ 连续动力学方向 Neural ODE / Neural SDE 把网络看作微分方程系统 理论优雅,物理/时序建模常用
Hamiltonian Neural Network (HNN) 保留物理守恒律的网络 在科学计算中极受关注
SymplecticNN / LagrangianNN 学物理系统的结构守恒性 可解释科学建模
🔬 科学建模方向 PINN (Physics-Informed Neural Network) 把偏微分方程嵌入网络 工程与科研爆红
DeepONet / FNO (Fourier Neural Operator) 从函数到函数的映射(算子学习) “科学界的Transformer”
KoopmanNN / OperatorNet 把非线性系统线性化处理 理论价值高
🧩 推理与能量方向 Energy-based Model (EBM) 学“能量函数”而不是概率 介于生成与判别之间
Score-based Model Diffusion 的理论起点 理解扩散模型本质
Boltzmann Machine / DBN / RBM 最早的“深度模型”,可逆能量网络 历史意义巨大
⚛️ 隐变量+图结构方向 Graphical Model / Bayesian Network 用图建模概率依赖 与SCM密切相关
Graph VAE / Graph Flow / Graph Diffusion 图结构生成模型 社交网络/分子生成常用
🔄 记忆与推理方向 Neural Turing Machine (NTM) 网络+外部记忆模块 最早的“神经推理机”雏形
Differentiable Neural Computer (DNC) DeepMind提出的可微存储网络 “有思考的神经网络”
Memory-Augmented NN (MANN) 少样本学习常用 PFN/MAML前身思想
🧬 元学习与少样本方向 MAML / Reptile / ProtoNet / PFN 学“学习算法”本身 小样本/泛化研究核心
HyperNetwork / MetaNet 生成其他网络的参数 适配任务变化的模型
🧮 优化与搜索方向 Neural Architecture Search (NAS) 网络自动设计 AutoML路线
Hyperparameter Bayesian Optimization 学超参分布 连接BNN理念
🧠 推理与概率图方向 Markov Logic Network / Deep CRF 结合逻辑推理与深度特征 图像/语言结构任务
🪐 生成模型冷门分支 Flow++ / VFlow / Glow Flow 系列的改进版 显式密度估计
EBM-VAE hybrid / ScoreFlow 混合VAE与能量模型 理论研究活跃
🧑‍🚀 神经科学启发方向 Predictive Coding Network / Active Inference 模仿大脑预测机制 接近理论神经科学
Spiking Neural Network (SNN) 生物启发的事件驱动网络 用在神经形态芯片上

🧭 二、可以这么理解:

这些模型各自对应一种「智能的视角」:

视角 想回答的问题 代表模型
📷 感知型 世界是什么? CNN, ViT
🎨 生成型 世界可能是什么? VAE, GAN, Diffusion
📊 贝叶斯型 我有多确定? BNN, GP, VI
🔗 因果型 为什么是这样? SCM, DAG-GNN
⚙️ 物理型 它怎么运动? PINN, Neural ODE
🧩 推理型 如何逻辑推导? NeSy, DeepProbLog
🧠 元学习型 我如何快速学习? MAML, PFN
🧮 自组织型 我能自己设计自己吗? NAS, HyperNetwork
🧬 神经科学型 我像大脑吗? SNN, Predictive Coding

🧱 三、如果你想“探索冷门大模型”研究路线

我推荐的探索顺序是:

CNN / RNN / Transformer
     ↓
VAE / GAN / Diffusion
     ↓
BNN / GP / Flow / EBM
     ↓
SCM / CausalNN / NeSy
     ↓
Neural ODE / PINN / FNO
     ↓
PFN / MAML / DNC

这样的路线从「统计分布 → 因果结构 → 推理机制 → 学习算法」,完整贯穿了 AI 从“看世界”到“理解世界”的进化路径。


📚 推荐进一步阅读

书/论文 方向 特点
Probabilistic Machine Learning (Kevin Murphy, 2023) 贝叶斯/概率 全景级教材
The Book of Why (Judea Pearl) 因果 思想革命
Deep Learning for Scientific Computing 科学建模 PINN/FNO系统介绍
Neural ODEs (NeurIPS 2018) 连续时间网络 极具启发性
Prior-Data Fitted Networks (ICML 2022) 元学习 + 贝叶斯 PFN原论文
Energy-Based Models Tutorial (Y. LeCun, 2021) EBM 经典回归

要不要我帮你把这些冷门模型分成一个「探索路径表」,比如:

  • 每个方向选 1~2 个代表模型;
  • 指定推荐论文 / 教程;
  • 按难度(容易 → 理论)排列成路线图?

这样你可以像玩游戏一样,一关一关解锁深度学习的“隐藏分支”。