Files
Literature/Review/Foundamental/The Perception 感知机 F.ROSENBLATT 1958.md
2025-10-18 23:29:15 +08:00

8.1 KiB
Raw Permalink Blame History

《The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain》,由 Frank Rosenblatt弗兰克·罗森布拉特1958 年 发表在《Psychological Review》上。这篇论文是神经网络Neural Network与机器学习历史上最重要的里程碑之一,标志着“人工神经网络”的第一次高潮。

🧠 一、论文背景

  • 作者Frank Rosenblatt
  • 发表年份1958
  • 期刊Psychological Review
  • 题目The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain
  • 时代背景 1950年代后期受图灵思想和神经科学的影响科学家希望用数学和计算模型模拟大脑的信息处理过程。 Rosenblatt 提出了 感知机Perceptron模型,作为对“机器如何像人脑一样学习”的具体实现。

⚙️ 二、研究目标

Rosenblatt 希望通过感知机回答两个问题:

  1. 大脑是如何学习模式和进行分类的?
  2. 能否让计算机像人类一样从样本中学习?

对于大脑,当时有两种的认知思路: 1、编码记忆理论认为每个图片单独映射,记忆 2、联结主义观点认为信息蕴含于联结或关联之中而非拓扑表征之中通过多层神经元

他的核心思想是:

“学习”可以通过调整神经元之间的连接权重来实现。


🧩 三、感知机模型结构

典型光感知器(一种以光学模式为刺激的感知器)的结构如图 1 所示,其结构规则如下:

感觉单元S 点)

刺激作用于由感觉单元S 点)构成的 “视网膜”。在一些模型中,这些感觉单元以 “全或无” 的方式响应;在另一些模型中,其脉冲幅度或频率与刺激强度成正比。本文所讨论的模型均假设其为 “全或无” 响应模式。

关联细胞A 单元)

脉冲传递到 “投射区”A₁的一组关联细胞A 单元。在某些模型中投射区可省略此时视网膜直接与关联区A₂相连。投射区中的每个细胞都从感觉点接收若干联结。向特定 A 单元传递脉冲的 S 点集合,被称为该 A 单元的 “起源点”。这些起源点对 A 单元的作用可能是兴奋性的,也可能是抑制性的。 若兴奋性和抑制性脉冲强度的代数和大于或等于 A 单元的阈值(θ),则 A 单元会以 “全或无” 的方式被激活在本文不讨论的另一些模型中A 单元的激活频率取决于所接收脉冲的净值)。 投射区中 A 单元的起源点,通常围绕该 A 单元的某个中心点聚集或集中分布,且随着与该 A 单元中心点视网膜距离的增加,起源点的数量呈指数级减少。(这种分布得到了生理学证据的支持,并且在轮廓检测中具有重要的功能意义。)

A₁与 A₂间的联结

在投射区A₁和关联区A₂之间联结被假设为随机的。即 A₂组中的每个 A 单元都从 A₁组的起源点接收若干纤维但这些起源点在投射区中是随机分布的。除联结分布外A₂单元与 A₁单元完全相同且响应条件相似。

反应单元R 单元)

反应R₁、R₂……Rₙ由细胞或细胞组构成其响应方式与 A 单元非常相似。每个反应的起源点通常数量众多,且在 A₂组中随机分布。向特定反应传递脉冲的 A 单元集合,被称为该反应的 “源集”(反应的源集与其在 A 系统中的起源点集合完全相同)。 图 1 中的箭头指示了网络中的信号传递方向。需注意的是,在 A₂之前所有联结都是前向的不存在反馈。而在 A₂与 R 单元之间的最后一组联结中,联结是双向的。在大多数感知器模型中,反馈联结遵循以下两种规则之一:

规则 a每个反应都对其自身源集中的细胞具有兴奋性反馈联结。 规则 b每个反应都对其自身源集的补集即所有不向该反应传递信号的关联细胞具有抑制性反馈联结。

从解剖学角度看,规则 a 似乎更合理,因为 R 单元可能与它们各自源集位于同一皮层区域,这使得 R 单元与相应源集的 A 单元之间形成相互兴奋的可能性极高。然而,规则 b 所形成的系统更易于分析,因此本文所评估的大多数系统均采用规则 b。

感知机是一个简化的生物神经元模型,由三个部分组成:
1 输入层Input layer 即SSense
  • 接收外界信号,如像素、传感器数据等;
  • 每个输入节点对应一个输入信号 ( x_i )。
2 加权求和Weighted sum即A
  • 每个输入都有一个权重 ( w_i )
  • 神经元计算输入的加权和: $ S = \sum_i w_i x_i $
3 激活函数Activation function
  • 使用一个阈值函数来决定输出: $ y = \begin{cases} 1 & \text{if } S > \theta \ \ \
    0 & \text{otherwise} \end{cases} $
  • 输出层的结果代表分类结果(例如:猫/狗、黑/白、A类/B类

🧠 四、学习算法Perceptron Learning Rule

Rosenblatt 提出了一个非常简单但革命性的学习规则

不需要事先告诉机器所有规则,只需给出样本和期望输出,机器自己调整权重。

算法步骤如下:

  1. 随机初始化权重 ( w_i )

  2. 对每个训练样本:

    • 计算输出 ( y )

    • 若输出正确,不修改;

    • 若输出错误,更新权重: $ w_i \leftarrow w_i + \eta (t - y) x_i $ 其中:

      • ( \eta ):学习率;
      • ( t ):期望输出;
      • ( y ):实际输出。

核心思想: 通过不断修正误差,使得感知机的输出逐渐接近期望结果。


🧬 五、理论贡献

Rosenblatt 认为感知机模型有以下能力:

  1. 模式识别Pattern Recognition 感知机可以自动学习识别不同的模式(图像、声音等)。

  2. 自适应学习Adaptive Learning 不依赖规则或人工编程,而是通过样本自动调整。

  3. 概率学习Probabilistic Model 学习过程具有概率特征,可以处理一定程度的不确定性。

  4. 生物启发Biological Plausibility 模型借鉴了神经元的连接方式,是人工神经网络的最早原型。


六、实验实现Mark I Perceptron

Rosenblatt 不仅提出了理论,还制造了硬件原型——Mark I Perceptron

  • 使用光电传感器(输入光点);
  • 输出为机械电路(模拟神经连接);
  • 能通过训练识别简单的图形(如字母形状)。

这是世界上第一个能“学习”的物理机器


🧱 七、感知机的局限性(后来被发现)

尽管论文非常前沿,但感知机有重大限制:

  1. 只能处理线性可分问题Linear separability 例如可以区分“左 vs 右”,但无法处理 XOR 异或问题。

  2. 没有隐藏层,所以无法表示复杂的非线性关系。

  3. 这一点后来被 Minsky 和 Papert1969 的著作《Perceptrons》严厉批评引发了第一次AI寒冬


🧭 八、历史与学术意义

  • 第一次神经网络浪潮的起点;
  • 引发后续的多层感知机MLP反向传播算法Backpropagation, 1986
  • 为**深度学习Deep Learning**奠定了数学与概念基础;
  • 现代的神经网络CNN、Transformer都是从感知机演化而来。

📘 九、总结一句话

Rosenblatt 的 1958 年论文《The Perceptron》首次提出了机器可以通过“调整权重”实现学习的思想定义了人工神经元的结构与学习规则为现代神经网络和深度学习奠定了理论根基。


如果你想,我可以帮你写出一个适合学术报告或论文引用的摘要版300字以内 / 中英文对照),或者一份对比图灵论文与感知机论文思想演变的分析,你希望我往哪种方向整理?