[30分钟]快速入门AI底层术语
2026/1/30大约 1 分钟
[30分钟]快速入门AI底层术语
4大类[基于神经网络的]模型
- MLP(Multilayer Perceptron,多层感知器)
- CNN卷积神经网络
- RNN循环神经网络
- Transformer【目前推荐】
实践建议
不要纠结于“纯种”网络:现实中几乎不存在纯粹的CNN或RNN应用
从问题出发倒推结构:
- 数据有空间结构?→ 考虑CNN模块
- 数据有时序关系?→ 考虑RNN/LSTM/GRU模块
- 需要最终决策?→ 加上MLP分类/回归头
善用预训练模块:
- 图像特征提取:直接用ResNet、EfficientNet等CNN主干
- 文本特征提取:用BERT、RoBERTa等Transformer模型
- 然后接上自己的任务特定层(通常是MLP)
现代深度学习不是选择“用CNN还是用RNN”,而是思考“如何把CNN、RNN、Attention、MLP等组件以最佳方式组装起来解决我的具体问题”。
这种模块化思维正是深度学习工程化的关键进步!
举例:关于AI术语经常讲各种操作单元进行混用
层级1:基础操作单元(原子级)
├── 卷积操作(CNN的核心)
├── 循环计算(RNN的核心)
├── 全连接计算(MLP的核心)
└── 注意力计算(Attention的核心)
层级2:网络层(分子级)
├── 卷积层 = 卷积操作 + 激活 + [可选BN]
├── 池化层 = 池化操作(最大/平均)
├── RNN层 = 循环计算单元(LSTM/GRU细胞)
├── 注意力层 = 注意力计算 + 前馈网络
└── 全连接层 = 全连接计算 + 激活
层级3:网络模块(细胞级)
├── ResNet块 = 卷积层×2 + 残差连接
├── Transformer块 = 自注意力层 + 前馈层 + 残差连接
└── ConvLSTM = 卷积操作 + LSTM门控