AI
Basic AI Concept
这些东西可以放进一个总框架
1. 人工智能总体结构
人工智能 AI

2. 概念分类
2.1 方法类(解决问题的方法)
- 机器学习 ML
- 深度学习 DL
- 神经网络 NN
- 强化学习 RL
- Transformer
- 注意力机制 Attention
2.2 应用领域(技术使用场景)
- 自然语言处理 NLP
- 计算机视觉 CV
- 语音识别
- 推荐系统
2.3 模型形态(具体模型类型)
- 大语言模型 LLM
- 多模态模型
3. 技术发展阶段
第一阶段:传统人工智能(1950s–1990s)
特点:
- 基于规则
- 人工设计知识库
代表:
- 专家系统
- 搜索算法
局限:
- 难扩展
- 依赖人工经验
第二阶段:机器学习时代(1990s–2010)
核心思想:
- 从数据中学习规律
代表模型:
- 线性回归
- 逻辑回归
- 支持向量机 SVM
- 决策树
- 随机森林
局限:
- 特征工程成本高
第三阶段:深度学习时代(2012–2017)
标志事件:
- ImageNet 图像识别突破
核心变化:
- 多层神经网络自动学习特征
代表结构:
- CNN(图像)
- RNN / LSTM(文本序列)
局限:
- 长序列训练困难
- 并行效率低
第四阶段:Transformer 时代(2017–至今)
标志论文:
- Attention Is All You Need
核心创新:
- 使用注意力机制替代循环结构
优势:
- 并行训练能力强
- 长距离依赖建模能力强
推动发展:
- GPT 系列
- BERT 系列
第五阶段:大模型时代(2020–至今)
特点:
- 参数规模巨大
- 统一多任务能力
- 预训练 + 微调范式
代表方向:
- 大语言模型 LLM
- 多模态大模型
4. 层级关系总结
4.1 技术层级
人工智能 AI
└── 机器学习 ML
└── 深度学习 DL
└── 神经网络 NN
└── Transformer
└── 大语言模型 LLM
5. 核心训练范式
监督学习
使用人工标注数据训练模型。
无监督学习
从无标签数据中学习结构。
自监督学习
利用数据内部结构构造训练目标。
强化学习
通过奖励信号学习最优策略。
6. 关键补充概念
表示学习(Representation Learning)
模型自动学习有效特征表达。
预训练(Pretraining)
在大规模数据上进行通用训练。
微调(Fine-tuning)
在具体任务数据上进行适配训练。
多模态学习(Multimodal Learning)
同时处理文本、图像、语音等多种数据。
7. 典型神经网络结构补充
MLP(多层感知机)
最基础的全连接神经网络结构。
CNN(卷积神经网络)
主要用于图像处理任务。
RNN / LSTM
主要用于时间序列与文本序列建模。
Transformer
当前主流深度学习基础架构。