Review 10.18

This commit is contained in:
e2hang
2025-10-18 23:29:15 +08:00
parent a1455481f8
commit b9b18061cf
4 changed files with 282 additions and 0 deletions

View File

@@ -0,0 +1,115 @@
阿兰·图灵Alan Turing1950 年发表在《Mind》期刊上的那篇著名论文——**《Computing Machinery and Intelligence》《计算机器与智能》**。这篇论文是人工智能思想史上最奠基性的作品之一。下面是对这篇论文的详细总结与要点解析:
---
## 🧠 一、论文背景
* **发表时间**1950年10月
* **发表期刊**《Mind》英国哲学期刊
* **作者**Alan M. Turing
* **核心问题**
图灵提出的根本问题是:
> “Can machines think?”(机器能思考吗?)
但他认为这个问题模糊不清,因此他提出了一个**可操作的替代问题**
> “是否有可能让机器表现出与人类等价的智能行为?”
---
## 🎮 二、“模仿游戏”Imitation Game
图灵提出了著名的 **“模仿游戏”The Imitation Game**,后来被称为**图灵测试Turing Test**。
游戏规则如下:
1. 一位“询问者”(人类)通过文字与两方交流:
* 一方是**人类**
* 一方是**机器**
2. 询问者不知道哪一方是机器,哪一方是人,只能通过文字问答来判断。
3. 如果询问者**无法可靠地区分**机器与人类的回答,则认为机器具有人类水平的智能。
> 📌 图灵的核心思想:
> “智能”不是看内部机制,而是看**外部行为**。
> 即,只要机器在行为上**无法与人类区分**,就可以说它“在思考”。
---
## 🧩 三、图灵对反对意见的回应Nine Objections
图灵在论文中非常系统地讨论了可能的反对观点,并逐一回应,共九类:
1. **神学反对Theological Objection**
认为只有上帝才能赋予灵魂,机器不可能思考。
→ 图灵回应:这是宗教立场,而非逻辑论证。
2. **“机器的局限性”反对The Heads in the Sand Objection**
认为机器会取代人类,让人害怕。
→ 图灵回应:恐惧不是论证。
3. **数学反对Mathematical Objection**
基于哥德尔不完备定理:机器无法解决一切问题。
→ 图灵回应:人类思维同样有限。
4. **意识反对The Argument from Consciousness**
认为机器即使模仿人类,也没有“主观体验”或“意识”。
→ 图灵回应:我们无法直接验证他人的意识,只能根据行为判断。
5. **各种残障反对Arguments from Various Disabilities**
比如“机器不能犯错”、“不能有幽默”、“不能爱”。
→ 图灵回应:这些特征都可以通过复杂程序实现。
6. **神经系统不同反对The Argument from the Nervous System**
认为机器和大脑物理机制不同,不能思考。
→ 图灵回应:机制不同不代表功能不可能相似。
7. **学习能力反对The Argument from Informality of Behaviour**
认为人类行为太复杂,无法被规则完全描述。
→ 图灵回应:可以通过**学习机器Learning Machine**实现。
8. **超感知反对The Argument from Extra-sensory Perception**
有人声称超能力或直觉不是机器能模仿的。
→ 图灵回应:这类说法缺乏科学证据。
---
## 🔬 四、学习机器Learning Machine的思想
图灵非常前瞻地提出:
> 我们不应该试图直接造出一个成人思维的机器,而应让它**像孩子一样学习**。
他提出了:
* **“儿童机器Child Machine”** 的概念;
* 它可以通过**教育、训练和惩罚机制**学习;
* 这就是后来“机器学习Machine Learning”思想的萌芽。
他还提出了类似进化论的观点让AI通过尝试不同的选择从而进化
---
## 📈 五、图灵的预测与展望
图灵大胆预测:
* 到**2000年左右**,计算机将拥有足够的存储与算法能力;
* 它们能在图灵测试中成功欺骗30%的审问者持续5分钟
* 他相信这时“机器能思考吗”将不再是哲学问题。
---
## 💬 六、论文的哲学意义
* 图灵的核心贡献是将“思考”从**形而上学问题**转化为**可操作的行为标准**
* 这篇论文为后来的**人工智能Artificial Intelligence**奠定了哲学与实验基础;
* 图灵提出的“学习机器”思想,也直接预示了**现代机器学习和神经网络**的发展方向。
---
## 🧭 七、总结一句话
> 图灵在1950年的《计算机器与智能》中用“模仿游戏”重新定义了智能提出了机器可以通过学习表现出思维的可能性并为人工智能奠定了哲学与理论基础。
---

View File

@@ -0,0 +1,167 @@
**《The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain》**,由 **Frank Rosenblatt弗兰克·罗森布拉特****1958 年** 发表在《Psychological Review》上。这篇论文是**神经网络Neural Network与机器学习历史上最重要的里程碑之一**,标志着“人工神经网络”的第一次高潮。
---
## 🧠 一、论文背景
* **作者**Frank Rosenblatt
* **发表年份**1958
* **期刊***Psychological Review*
* **题目***The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain*
* **时代背景**
1950年代后期受图灵思想和神经科学的影响科学家希望用数学和计算模型模拟大脑的信息处理过程。
Rosenblatt 提出了 **感知机Perceptron模型**,作为对“机器如何像人脑一样学习”的具体实现。
---
## ⚙️ 二、研究目标
Rosenblatt 希望通过感知机回答两个问题:
1. **大脑是如何学习模式和进行分类的?**
2. **能否让计算机像人类一样从样本中学习?**
对于大脑,当时有两种的认知思路:
1、编码记忆理论认为每个图片**单独映射,记忆**
2、联结主义观点认为信息蕴含于联结或关联之中而非拓扑表征之中通过多层神经元
他的核心思想是:
> “学习”可以通过调整神经元之间的连接权重来实现。
---
## 🧩 三、感知机模型结构
典型光感知器(一种以光学模式为刺激的感知器)的结构如图 1 所示,其结构规则如下:
##### 感觉单元S 点)
刺激作用于由感觉单元S 点)构成的 “视网膜”。在一些模型中,这些感觉单元以 “全或无” 的方式响应;在另一些模型中,其脉冲幅度或频率与刺激强度成正比。本文所讨论的模型均假设其为 “全或无” 响应模式。
##### 关联细胞A 单元)
脉冲传递到 “投射区”A₁的一组关联细胞A 单元。在某些模型中投射区可省略此时视网膜直接与关联区A₂相连。投射区中的每个细胞都从感觉点接收若干联结。向特定 A 单元传递脉冲的 S 点集合,被称为该 A 单元的 “起源点”。这些起源点对 A 单元的作用可能是兴奋性的,也可能是抑制性的。
若兴奋性和抑制性脉冲强度的代数和大于或等于 A 单元的阈值(θ),则 A 单元会以 “全或无” 的方式被激活在本文不讨论的另一些模型中A 单元的激活频率取决于所接收脉冲的净值)。
投射区中 A 单元的起源点,通常围绕该 A 单元的某个中心点聚集或集中分布,且随着与该 A 单元中心点视网膜距离的增加,起源点的数量呈指数级减少。(这种分布得到了生理学证据的支持,并且在轮廓检测中具有重要的功能意义。)
##### A₁与 A₂间的联结
在投射区A₁和关联区A₂之间联结被假设为随机的。即 A₂组中的每个 A 单元都从 A₁组的起源点接收若干纤维但这些起源点在投射区中是随机分布的。除联结分布外A₂单元与 A₁单元完全相同且响应条件相似。
##### 反应单元R 单元)
反应R₁、R₂……Rₙ由细胞或细胞组构成其响应方式与 A 单元非常相似。每个反应的起源点通常数量众多,且在 A₂组中随机分布。向特定反应传递脉冲的 A 单元集合,被称为该反应的 “源集”(反应的源集与其在 A 系统中的起源点集合完全相同)。
图 1 中的箭头指示了网络中的信号传递方向。需注意的是,在 A₂之前所有联结都是前向的不存在反馈。而在 A₂与 R 单元之间的最后一组联结中,联结是双向的。在大多数感知器模型中,反馈联结遵循以下两种规则之一:
> 规则 a每个反应都对其自身源集中的细胞具有兴奋性反馈联结。
> 规则 b每个反应都对其自身源集的补集即所有不向该反应传递信号的关联细胞具有抑制性反馈联结。
从解剖学角度看,规则 a 似乎更合理,因为 R 单元可能与它们各自源集位于同一皮层区域,这使得 R 单元与相应源集的 A 单元之间形成相互兴奋的可能性极高。然而,规则 b 所形成的系统更易于分析,因此本文所评估的大多数系统均采用规则 b。
##### 感知机是一个简化的**生物神经元**模型,由三个部分组成:
###### 1⃣ 输入层Input layer 即SSense
* 接收外界信号,如像素、传感器数据等;
* 每个输入节点对应一个输入信号 ( x_i )。
###### 2⃣ 加权求和Weighted sum即A
* 每个输入都有一个权重 ( w_i )
* 神经元计算输入的加权和:
$
S = \sum_i w_i x_i
$
###### 3⃣ 激活函数Activation function
* 使用一个**阈值函数**来决定输出:
$
y =
\begin{cases}
1 & \text{if } S > \theta \ \ \ \
0 & \text{otherwise}
\end{cases}
$
* 输出层的结果代表分类结果(例如:猫/狗、黑/白、A类/B类
---
## 🧠 四、学习算法Perceptron Learning Rule
Rosenblatt 提出了一个非常简单但革命性的**学习规则**
> 不需要事先告诉机器所有规则,只需给出样本和期望输出,机器自己调整权重。
算法步骤如下:
1. 随机初始化权重 ( w_i )
2. 对每个训练样本:
* 计算输出 ( y )
* 若输出正确,不修改;
* 若输出错误,更新权重:
$
w_i \leftarrow w_i + \eta (t - y) x_i
$
其中:
* ( $\eta$ ):学习率;
* ( $t$ ):期望输出;
* ( $y$ ):实际输出。
**核心思想:**
通过不断修正误差,使得感知机的输出逐渐接近期望结果。
---
## 🧬 五、理论贡献
Rosenblatt 认为感知机模型有以下能力:
1. **模式识别**Pattern Recognition
感知机可以自动学习识别不同的模式(图像、声音等)。
2. **自适应学习**Adaptive Learning
不依赖规则或人工编程,而是通过样本自动调整。
3. **概率学习**Probabilistic Model
学习过程具有概率特征,可以处理一定程度的不确定性。
4. **生物启发**Biological Plausibility
模型借鉴了神经元的连接方式,是人工神经网络的最早原型。
---
## ⚡ 六、实验实现Mark I Perceptron
Rosenblatt 不仅提出了理论,还**制造了硬件原型**——**Mark I Perceptron**。
* 使用光电传感器(输入光点);
* 输出为机械电路(模拟神经连接);
* 能通过训练识别简单的图形(如字母形状)。
这是**世界上第一个能“学习”的物理机器**。
---
## 🧱 七、感知机的局限性(后来被发现)
尽管论文非常前沿,但感知机有重大限制:
1. **只能处理线性可分问题**Linear separability
例如可以区分“左 vs 右”,但无法处理 XOR 异或问题。
2. **没有隐藏层**,所以无法表示复杂的非线性关系。
3. 这一点后来被 **Minsky 和 Papert1969** 的著作《Perceptrons》严厉批评引发了**第一次AI寒冬**。
---
## 🧭 八、历史与学术意义
* **第一次神经网络浪潮**的起点;
* 引发后续的**多层感知机MLP**、**反向传播算法Backpropagation, 1986**
* 为**深度学习Deep Learning**奠定了数学与概念基础;
* 现代的神经网络CNN、Transformer都是从感知机演化而来。
---
## 📘 九、总结一句话
> Rosenblatt 的 1958 年论文《The Perceptron》首次提出了机器可以通过“调整权重”实现学习的思想定义了人工神经元的结构与学习规则为现代神经网络和深度学习奠定了理论根基。
---
如果你想,我可以帮你写出一个**适合学术报告或论文引用的摘要版300字以内 / 中英文对照)**,或者一份**对比图灵论文与感知机论文思想演变的分析**,你希望我往哪种方向整理?