AI

Basic AI Concept

这些东西可以放进一个总框架


1. 人工智能总体结构

人工智能 AI

如图

2. 概念分类

2.1 方法类(解决问题的方法)

  • 机器学习 ML
  • 深度学习 DL
  • 神经网络 NN
  • 强化学习 RL
  • Transformer
  • 注意力机制 Attention

2.2 应用领域(技术使用场景)

  • 自然语言处理 NLP
  • 计算机视觉 CV
  • 语音识别
  • 推荐系统

2.3 模型形态(具体模型类型)

  • 大语言模型 LLM
  • 多模态模型

3. 技术发展阶段

第一阶段:传统人工智能(1950s–1990s)

特点:

  • 基于规则
  • 人工设计知识库

代表:

  • 专家系统
  • 搜索算法

局限:

  • 难扩展
  • 依赖人工经验

第二阶段:机器学习时代(1990s–2010)

核心思想:

  • 从数据中学习规律

代表模型:

  • 线性回归
  • 逻辑回归
  • 支持向量机 SVM
  • 决策树
  • 随机森林

局限:

  • 特征工程成本高

第三阶段:深度学习时代(2012–2017)

标志事件:

  • ImageNet 图像识别突破

核心变化:

  • 多层神经网络自动学习特征

代表结构:

  • CNN(图像)
  • RNN / LSTM(文本序列)

局限:

  • 长序列训练困难
  • 并行效率低

第四阶段:Transformer 时代(2017–至今)

标志论文:

  • Attention Is All You Need

核心创新:

  • 使用注意力机制替代循环结构

优势:

  • 并行训练能力强
  • 长距离依赖建模能力强

推动发展:

  • GPT 系列
  • BERT 系列

第五阶段:大模型时代(2020–至今)

特点:

  • 参数规模巨大
  • 统一多任务能力
  • 预训练 + 微调范式

代表方向:

  • 大语言模型 LLM
  • 多模态大模型

4. 层级关系总结

4.1 技术层级


人工智能 AI

└── 机器学习 ML

└── 深度学习 DL

└── 神经网络 NN

└── Transformer

└── 大语言模型 LLM

5. 核心训练范式

监督学习

使用人工标注数据训练模型。

无监督学习

从无标签数据中学习结构。

自监督学习

利用数据内部结构构造训练目标。

强化学习

通过奖励信号学习最优策略。


6. 关键补充概念

表示学习(Representation Learning)

模型自动学习有效特征表达。


预训练(Pretraining)

在大规模数据上进行通用训练。


微调(Fine-tuning)

在具体任务数据上进行适配训练。


多模态学习(Multimodal Learning)

同时处理文本、图像、语音等多种数据。


7. 典型神经网络结构补充

MLP(多层感知机)

最基础的全连接神经网络结构。

CNN(卷积神经网络)

主要用于图像处理任务。

RNN / LSTM

主要用于时间序列与文本序列建模。

Transformer

当前主流深度学习基础架构。