Review 10.18
This commit is contained in:
		@@ -0,0 +1,115 @@
 | 
			
		||||
阿兰·图灵(Alan Turing)1950 年发表在《Mind》期刊上的那篇著名论文——**《Computing Machinery and Intelligence》(《计算机器与智能》)**。这篇论文是人工智能思想史上最奠基性的作品之一。下面是对这篇论文的详细总结与要点解析:
 | 
			
		||||
 | 
			
		||||
---
 | 
			
		||||
 | 
			
		||||
## 🧠 一、论文背景
 | 
			
		||||
 | 
			
		||||
* **发表时间**:1950年10月
 | 
			
		||||
* **发表期刊**:《Mind》(英国哲学期刊)
 | 
			
		||||
* **作者**:Alan M. Turing
 | 
			
		||||
* **核心问题**:
 | 
			
		||||
  图灵提出的根本问题是:
 | 
			
		||||
 | 
			
		||||
  > “Can machines think?”(机器能思考吗?)
 | 
			
		||||
 | 
			
		||||
  但他认为这个问题模糊不清,因此他提出了一个**可操作的替代问题**:
 | 
			
		||||
 | 
			
		||||
  > “是否有可能让机器表现出与人类等价的智能行为?”
 | 
			
		||||
 | 
			
		||||
---
 | 
			
		||||
 | 
			
		||||
## 🎮 二、“模仿游戏”(Imitation Game)
 | 
			
		||||
 | 
			
		||||
图灵提出了著名的 **“模仿游戏”(The Imitation Game)**,后来被称为**图灵测试(Turing Test)**。
 | 
			
		||||
游戏规则如下:
 | 
			
		||||
 | 
			
		||||
1. 一位“询问者”(人类)通过文字与两方交流:
 | 
			
		||||
 | 
			
		||||
   * 一方是**人类**
 | 
			
		||||
   * 一方是**机器**
 | 
			
		||||
2. 询问者不知道哪一方是机器,哪一方是人,只能通过文字问答来判断。
 | 
			
		||||
3. 如果询问者**无法可靠地区分**机器与人类的回答,则认为机器具有人类水平的智能。
 | 
			
		||||
 | 
			
		||||
> 📌 图灵的核心思想:
 | 
			
		||||
> “智能”不是看内部机制,而是看**外部行为**。
 | 
			
		||||
> 即,只要机器在行为上**无法与人类区分**,就可以说它“在思考”。
 | 
			
		||||
 | 
			
		||||
---
 | 
			
		||||
 | 
			
		||||
## 🧩 三、图灵对反对意见的回应(Nine Objections)
 | 
			
		||||
 | 
			
		||||
图灵在论文中非常系统地讨论了可能的反对观点,并逐一回应,共九类:
 | 
			
		||||
 | 
			
		||||
1. **神学反对(Theological Objection)**
 | 
			
		||||
   认为只有上帝才能赋予灵魂,机器不可能思考。
 | 
			
		||||
   → 图灵回应:这是宗教立场,而非逻辑论证。
 | 
			
		||||
 | 
			
		||||
2. **“机器的局限性”反对(The ‘Heads in the Sand’ Objection)**
 | 
			
		||||
   认为机器会取代人类,让人害怕。
 | 
			
		||||
   → 图灵回应:恐惧不是论证。
 | 
			
		||||
 | 
			
		||||
3. **数学反对(Mathematical Objection)**
 | 
			
		||||
   基于哥德尔不完备定理:机器无法解决一切问题。
 | 
			
		||||
   → 图灵回应:人类思维同样有限。
 | 
			
		||||
 | 
			
		||||
4. **意识反对(The Argument from Consciousness)**
 | 
			
		||||
   认为机器即使模仿人类,也没有“主观体验”或“意识”。
 | 
			
		||||
   → 图灵回应:我们无法直接验证他人的意识,只能根据行为判断。
 | 
			
		||||
 | 
			
		||||
5. **各种残障反对(Arguments from Various Disabilities)**
 | 
			
		||||
   比如“机器不能犯错”、“不能有幽默”、“不能爱”。
 | 
			
		||||
   → 图灵回应:这些特征都可以通过复杂程序实现。
 | 
			
		||||
 | 
			
		||||
6. **神经系统不同反对(The Argument from the Nervous System)**
 | 
			
		||||
   认为机器和大脑物理机制不同,不能思考。
 | 
			
		||||
   → 图灵回应:机制不同不代表功能不可能相似。
 | 
			
		||||
 | 
			
		||||
7. **学习能力反对(The Argument from Informality of Behaviour)**
 | 
			
		||||
   认为人类行为太复杂,无法被规则完全描述。
 | 
			
		||||
   → 图灵回应:可以通过**学习机器(Learning Machine)**实现。
 | 
			
		||||
 | 
			
		||||
8. **超感知反对(The Argument from Extra-sensory Perception)**
 | 
			
		||||
   有人声称超能力或直觉不是机器能模仿的。
 | 
			
		||||
   → 图灵回应:这类说法缺乏科学证据。
 | 
			
		||||
 | 
			
		||||
---
 | 
			
		||||
 | 
			
		||||
## 🔬 四、学习机器(Learning Machine)的思想
 | 
			
		||||
 | 
			
		||||
图灵非常前瞻地提出:
 | 
			
		||||
 | 
			
		||||
> 我们不应该试图直接造出一个成人思维的机器,而应让它**像孩子一样学习**。
 | 
			
		||||
 | 
			
		||||
他提出了:
 | 
			
		||||
 | 
			
		||||
* **“儿童机器(Child Machine)”** 的概念;
 | 
			
		||||
* 它可以通过**教育、训练和惩罚机制**学习;
 | 
			
		||||
* 这就是后来“机器学习(Machine Learning)”思想的萌芽。
 | 
			
		||||
 | 
			
		||||
他还提出了类似进化论的观点,让AI通过尝试不同的选择,从而进化
 | 
			
		||||
---
 | 
			
		||||
 | 
			
		||||
## 📈 五、图灵的预测与展望
 | 
			
		||||
 | 
			
		||||
图灵大胆预测:
 | 
			
		||||
 | 
			
		||||
* 到**2000年左右**,计算机将拥有足够的存储与算法能力;
 | 
			
		||||
* 它们能在图灵测试中成功欺骗30%的审问者,持续5分钟;
 | 
			
		||||
* 他相信这时“机器能思考吗”将不再是哲学问题。
 | 
			
		||||
 | 
			
		||||
---
 | 
			
		||||
 | 
			
		||||
## 💬 六、论文的哲学意义
 | 
			
		||||
 | 
			
		||||
* 图灵的核心贡献是将“思考”从**形而上学问题**转化为**可操作的行为标准**;
 | 
			
		||||
* 这篇论文为后来的**人工智能(Artificial Intelligence)**奠定了哲学与实验基础;
 | 
			
		||||
* 图灵提出的“学习机器”思想,也直接预示了**现代机器学习和神经网络**的发展方向。
 | 
			
		||||
 | 
			
		||||
---
 | 
			
		||||
 | 
			
		||||
## 🧭 七、总结一句话
 | 
			
		||||
 | 
			
		||||
> 图灵在1950年的《计算机器与智能》中,用“模仿游戏”重新定义了智能,提出了机器可以通过学习表现出思维的可能性,并为人工智能奠定了哲学与理论基础。
 | 
			
		||||
 | 
			
		||||
---
 | 
			
		||||
 | 
			
		||||
							
								
								
									
										167
									
								
								Review/Foundamental/The Perception 感知机 F.ROSENBLATT 1958.md
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										167
									
								
								Review/Foundamental/The Perception 感知机 F.ROSENBLATT 1958.md
									
									
									
									
									
										Normal file
									
								
							@@ -0,0 +1,167 @@
 | 
			
		||||
**《The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain》**,由 **Frank Rosenblatt(弗兰克·罗森布拉特)** 于 **1958 年** 发表在《Psychological Review》上。这篇论文是**神经网络(Neural Network)与机器学习历史上最重要的里程碑之一**,标志着“人工神经网络”的第一次高潮。
 | 
			
		||||
---
 | 
			
		||||
 | 
			
		||||
## 🧠 一、论文背景
 | 
			
		||||
 | 
			
		||||
* **作者**:Frank Rosenblatt
 | 
			
		||||
* **发表年份**:1958
 | 
			
		||||
* **期刊**:*Psychological Review*
 | 
			
		||||
* **题目**:*The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain*
 | 
			
		||||
* **时代背景**:
 | 
			
		||||
  1950年代后期,受图灵思想和神经科学的影响,科学家希望用数学和计算模型模拟大脑的信息处理过程。
 | 
			
		||||
  Rosenblatt 提出了 **感知机(Perceptron)模型**,作为对“机器如何像人脑一样学习”的具体实现。
 | 
			
		||||
 | 
			
		||||
---
 | 
			
		||||
 | 
			
		||||
## ⚙️ 二、研究目标
 | 
			
		||||
 | 
			
		||||
Rosenblatt 希望通过感知机回答两个问题:
 | 
			
		||||
 | 
			
		||||
1. **大脑是如何学习模式和进行分类的?**
 | 
			
		||||
2. **能否让计算机像人类一样从样本中学习?**
 | 
			
		||||
 | 
			
		||||
对于大脑,当时有两种的认知思路:
 | 
			
		||||
1、编码记忆理论,认为每个图片**单独映射,记忆**
 | 
			
		||||
2、联结主义观点,认为信息蕴含于联结或关联之中,而非拓扑表征之中(通过多层神经元)
 | 
			
		||||
 | 
			
		||||
他的核心思想是:
 | 
			
		||||
 | 
			
		||||
> “学习”可以通过调整神经元之间的连接权重来实现。
 | 
			
		||||
 | 
			
		||||
---
 | 
			
		||||
 | 
			
		||||
## 🧩 三、感知机模型结构
 | 
			
		||||
 | 
			
		||||
典型光感知器(一种以光学模式为刺激的感知器)的结构如图 1 所示,其结构规则如下:
 | 
			
		||||
##### (一)感觉单元(S 点)
 | 
			
		||||
刺激作用于由感觉单元(S 点)构成的 “视网膜”。在一些模型中,这些感觉单元以 “全或无” 的方式响应;在另一些模型中,其脉冲幅度或频率与刺激强度成正比。本文所讨论的模型均假设其为 “全或无” 响应模式。
 | 
			
		||||
##### (二)关联细胞(A 单元)
 | 
			
		||||
脉冲传递到 “投射区”(A₁)的一组关联细胞(A 单元)。在某些模型中,投射区可省略,此时视网膜直接与关联区(A₂)相连。投射区中的每个细胞都从感觉点接收若干联结。向特定 A 单元传递脉冲的 S 点集合,被称为该 A 单元的 “起源点”。这些起源点对 A 单元的作用可能是兴奋性的,也可能是抑制性的。
 | 
			
		||||
若兴奋性和抑制性脉冲强度的代数和大于或等于 A 单元的阈值(θ),则 A 单元会以 “全或无” 的方式被激活(在本文不讨论的另一些模型中,A 单元的激活频率取决于所接收脉冲的净值)。
 | 
			
		||||
投射区中 A 单元的起源点,通常围绕该 A 单元的某个中心点聚集或集中分布,且随着与该 A 单元中心点视网膜距离的增加,起源点的数量呈指数级减少。(这种分布得到了生理学证据的支持,并且在轮廓检测中具有重要的功能意义。)
 | 
			
		||||
##### (三)A₁与 A₂间的联结
 | 
			
		||||
在投射区(A₁)和关联区(A₂)之间,联结被假设为随机的。即 A₂组中的每个 A 单元都从 A₁组的起源点接收若干纤维,但这些起源点在投射区中是随机分布的。除联结分布外,A₂单元与 A₁单元完全相同,且响应条件相似。
 | 
			
		||||
##### (四)反应单元(R 单元)
 | 
			
		||||
反应(R₁、R₂……Rₙ)由细胞(或细胞组)构成,其响应方式与 A 单元非常相似。每个反应的起源点通常数量众多,且在 A₂组中随机分布。向特定反应传递脉冲的 A 单元集合,被称为该反应的 “源集”(反应的源集与其在 A 系统中的起源点集合完全相同)。
 | 
			
		||||
图 1 中的箭头指示了网络中的信号传递方向。需注意的是,在 A₂之前,所有联结都是前向的,不存在反馈。而在 A₂与 R 单元之间的最后一组联结中,联结是双向的。在大多数感知器模型中,反馈联结遵循以下两种规则之一:
 | 
			
		||||
> 规则 a:每个反应都对其自身源集中的细胞具有兴奋性反馈联结。
 | 
			
		||||
> 规则 b:每个反应都对其自身源集的补集(即所有不向该反应传递信号的关联细胞)具有抑制性反馈联结。
 | 
			
		||||
 | 
			
		||||
从解剖学角度看,规则 a 似乎更合理,因为 R 单元可能与它们各自源集位于同一皮层区域,这使得 R 单元与相应源集的 A 单元之间形成相互兴奋的可能性极高。然而,规则 b 所形成的系统更易于分析,因此本文所评估的大多数系统均采用规则 b。
 | 
			
		||||
 | 
			
		||||
##### 感知机是一个简化的**生物神经元**模型,由三个部分组成:
 | 
			
		||||
 | 
			
		||||
###### 1️⃣ 输入层(Input layer) 即S(Sense)
 | 
			
		||||
 | 
			
		||||
* 接收外界信号,如像素、传感器数据等;
 | 
			
		||||
* 每个输入节点对应一个输入信号 ( x_i )。
 | 
			
		||||
 | 
			
		||||
###### 2️⃣ 加权求和(Weighted sum)即A
 | 
			
		||||
 | 
			
		||||
* 每个输入都有一个权重 ( w_i );
 | 
			
		||||
* 神经元计算输入的加权和:
 | 
			
		||||
  $
 | 
			
		||||
  S = \sum_i w_i x_i
 | 
			
		||||
  $
 | 
			
		||||
 | 
			
		||||
###### 3️⃣ 激活函数(Activation function)
 | 
			
		||||
 | 
			
		||||
* 使用一个**阈值函数**来决定输出:
 | 
			
		||||
  $
 | 
			
		||||
  y =
 | 
			
		||||
  \begin{cases}
 | 
			
		||||
  1 & \text{if } S > \theta \ \ \ \
 | 
			
		||||
  0 & \text{otherwise}
 | 
			
		||||
  \end{cases}
 | 
			
		||||
  $
 | 
			
		||||
* 输出层的结果代表分类结果(例如:猫/狗、黑/白、A类/B类)。
 | 
			
		||||
 | 
			
		||||
---
 | 
			
		||||
 | 
			
		||||
## 🧠 四、学习算法(Perceptron Learning Rule)
 | 
			
		||||
 | 
			
		||||
Rosenblatt 提出了一个非常简单但革命性的**学习规则**:
 | 
			
		||||
 | 
			
		||||
> 不需要事先告诉机器所有规则,只需给出样本和期望输出,机器自己调整权重。
 | 
			
		||||
 | 
			
		||||
算法步骤如下:
 | 
			
		||||
 | 
			
		||||
1. 随机初始化权重 ( w_i );
 | 
			
		||||
2. 对每个训练样本:
 | 
			
		||||
 | 
			
		||||
   * 计算输出 ( y )
 | 
			
		||||
   * 若输出正确,不修改;
 | 
			
		||||
   * 若输出错误,更新权重:
 | 
			
		||||
     $
 | 
			
		||||
     w_i \leftarrow w_i + \eta (t - y) x_i
 | 
			
		||||
     $
 | 
			
		||||
     其中:
 | 
			
		||||
 | 
			
		||||
     * ( $\eta$ ):学习率;
 | 
			
		||||
     * ( $t$ ):期望输出;
 | 
			
		||||
     * ( $y$ ):实际输出。
 | 
			
		||||
 | 
			
		||||
→ **核心思想:**
 | 
			
		||||
通过不断修正误差,使得感知机的输出逐渐接近期望结果。
 | 
			
		||||
 | 
			
		||||
---
 | 
			
		||||
 | 
			
		||||
## 🧬 五、理论贡献
 | 
			
		||||
 | 
			
		||||
Rosenblatt 认为感知机模型有以下能力:
 | 
			
		||||
 | 
			
		||||
1. **模式识别**(Pattern Recognition)
 | 
			
		||||
   感知机可以自动学习识别不同的模式(图像、声音等)。
 | 
			
		||||
 | 
			
		||||
2. **自适应学习**(Adaptive Learning)
 | 
			
		||||
   不依赖规则或人工编程,而是通过样本自动调整。
 | 
			
		||||
 | 
			
		||||
3. **概率学习**(Probabilistic Model)
 | 
			
		||||
   学习过程具有概率特征,可以处理一定程度的不确定性。
 | 
			
		||||
 | 
			
		||||
4. **生物启发**(Biological Plausibility)
 | 
			
		||||
   模型借鉴了神经元的连接方式,是人工神经网络的最早原型。
 | 
			
		||||
 | 
			
		||||
---
 | 
			
		||||
 | 
			
		||||
## ⚡ 六、实验实现(Mark I Perceptron)
 | 
			
		||||
 | 
			
		||||
Rosenblatt 不仅提出了理论,还**制造了硬件原型**——**Mark I Perceptron**。
 | 
			
		||||
 | 
			
		||||
* 使用光电传感器(输入光点);
 | 
			
		||||
* 输出为机械电路(模拟神经连接);
 | 
			
		||||
* 能通过训练识别简单的图形(如字母形状)。
 | 
			
		||||
 | 
			
		||||
这是**世界上第一个能“学习”的物理机器**。
 | 
			
		||||
 | 
			
		||||
---
 | 
			
		||||
 | 
			
		||||
## 🧱 七、感知机的局限性(后来被发现)
 | 
			
		||||
 | 
			
		||||
尽管论文非常前沿,但感知机有重大限制:
 | 
			
		||||
 | 
			
		||||
1. **只能处理线性可分问题**(Linear separability)
 | 
			
		||||
   例如可以区分“左 vs 右”,但无法处理 XOR 异或问题。
 | 
			
		||||
 | 
			
		||||
2. **没有隐藏层**,所以无法表示复杂的非线性关系。
 | 
			
		||||
 | 
			
		||||
3. 这一点后来被 **Minsky 和 Papert(1969)** 的著作《Perceptrons》严厉批评,引发了**第一次AI寒冬**。
 | 
			
		||||
 | 
			
		||||
---
 | 
			
		||||
 | 
			
		||||
## 🧭 八、历史与学术意义
 | 
			
		||||
 | 
			
		||||
* **第一次神经网络浪潮**的起点;
 | 
			
		||||
* 引发后续的**多层感知机(MLP)**、**反向传播算法(Backpropagation, 1986)**;
 | 
			
		||||
* 为**深度学习(Deep Learning)**奠定了数学与概念基础;
 | 
			
		||||
* 现代的神经网络(CNN、Transformer)都是从感知机演化而来。
 | 
			
		||||
 | 
			
		||||
---
 | 
			
		||||
 | 
			
		||||
## 📘 九、总结一句话
 | 
			
		||||
 | 
			
		||||
> Rosenblatt 的 1958 年论文《The Perceptron》首次提出了机器可以通过“调整权重”实现学习的思想,定义了人工神经元的结构与学习规则,为现代神经网络和深度学习奠定了理论根基。
 | 
			
		||||
 | 
			
		||||
---
 | 
			
		||||
 | 
			
		||||
如果你想,我可以帮你写出一个**适合学术报告或论文引用的摘要版(300字以内 / 中英文对照)**,或者一份**对比图灵论文与感知机论文思想演变的分析**,你希望我往哪种方向整理?
 | 
			
		||||
							
								
								
									
										
											BIN
										
									
								
								游戏AI/RL-Mahjong/20240704001356567345.pdf
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										
											BIN
										
									
								
								游戏AI/RL-Mahjong/20240704001356567345.pdf
									
									
									
									
									
										Normal file
									
								
							
										
											Binary file not shown.
										
									
								
							
							
								
								
									
										
											BIN
										
									
								
								游戏AI/RL-Mahjong/Building a 3-Player Mahjong AI using.pdf
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										
											BIN
										
									
								
								游戏AI/RL-Mahjong/Building a 3-Player Mahjong AI using.pdf
									
									
									
									
									
										Normal file
									
								
							
										
											Binary file not shown.
										
									
								
							
		Reference in New Issue
	
	Block a user