循着GPT,迈向豆包、Curse、千问等,大模型之用已然深入至我们生活的诸多面向了。人类业已步入AI岁月,积极进取的你也得跟上这步伐,鉴于此,我会一步步地推呈出一连串连中学生皆能领会的大模型原理以及发展进程的科普系列,一块儿研习AI。
词条标签为,#Transformer,#大模型,#AI,#人工智能。
关于互动数据,其中视频内容大纲在00:00这个时间点,是引言部分,此引言的内容为Transformer简介。
Transformer属于基于注意力机制的神经网络架构,它摒弃了循环结构,达成了高度并行计算,解决了长距离依赖信息丢失的难题。
编码器、解码器、多头自注意力层、前馈网络等模块构成了Transformer,它具备卓越的可扩展性,它已然成为现代人工智能领域的核心技术,它被广泛应用于自然语言处理、计算机视觉等多个领域。
核心架构图:
核心设计是,N层进行堆叠,再加上自注意力机制,也就是Self - Attention。
01:02 - RNN的局限性
RNN的"阿喀琉斯之踵"——循环神经网络的两大核心瓶颈:
01. 串行计算,效率低下
02. 长距离依赖,信息丢失
02:20 - Transformer的诞生
Transformer摒弃循环结构,依靠注意力机制,提升训练效率,化解长距离依赖问题。
03:43 - Transformer的整体架构
01. 引言:Transformer整体架构概览
Transformer核心架构:编码器-解码器双塔模型示意
核心模块:
那最初的输入层面,也就是Input这儿呢,先是运用词嵌入,也就是Embedding,然后再加上位置编码, Positional Encoding,这是第一步,有标点符号。接着是编码器栈,Encoder Stack,它是由N个相同的编码器层堆叠而成的,这个部分负责深度地去理解输入序列的语义,有标点符号。再接下来是解码器栈,Decoder Stack,同样是N个相同的解码器层堆叠起来的,这块是基于上下文去生成目标输出序列,有标点符号。最后到输出层,Output,它是通过线性层映射再加Softmax归一化来预测下一个词元概率的,有标点符号。
核心设计: N层堆叠 + 自注意力机制 (Self-Attention)
05:00 - 自注意力机制
02. 核心模块一:自注意力的直观理解
Q-K-V 映射与注意力匹配流程:
自注意力机制的核心在于,所涉及的序列里,每一个特定的词也就是Query,会跟全部的词即Key去计算相似度,通过这样的方式,对此进行加权并求Value的和,最终得以获得融合了全局上下文的一种新的表示。
带有多头性质的注意力机制,在09:16这个时刻里 ,被称为多头注意力 (Multi-Head Attention)。
多维捕捉,增强表达
不同的注意力头,会聚焦于不同的子空间,像是语法结构、语义关联这些方面,进而显著地提升模型的特征提取能力,还能提升模型的信息理解能力。
"多个专家会诊"
单一注意力头的能力存在限制,多头是把Q、K、V进行拆分后,各自独立开展计算,随后整合计算得出的结果,这情形就如同多个专家协同进行诊断一般。
PyTorch核心实现代码:
class MultiHeadAttention(nn.Module):
def __init__(self, d_model, n_heads):
self.w_q = nn.Linear(d_model, d_model)
self.w_k = nn.Linear(d_model, d_model)
self.w_v = nn.Linear(d_model, d_model)
self.attention = ScaledDotProductAttention()
10时14分,往前馈送的网络,也就是前馈网络(Feed Forward Network)。
03. 核心模块二:前馈网络
核心机制:非线性特征变换
执行顺序为,先是线性变换,接着是修正线性单元,然后是随机失活,最后又是线性变换。
位置独立变换机制
Attention后对特征进行精细化加工
实现代码 (PositionWiseFFN) 用PyTorch:
class PositionwiseFFN(nn.Module):
def forward(self, x):
return self.fc2(self.dropout(F.relu(self.fc1(x))))
10:59 - 编码器层 (Encoder Layer)
04. 核心模块三:编码器层
Transformer 的核心计算单元是编码器层,它包含两个子层,还有标准化结构。
流程是,先是X,接着进入Self - Attn,随后是Add&Norm,再之后是FFN,最后又是Add&Norm。
PyTorch代码实现:
class EncoderLayer(nn.Module):
def forward(self, x, mask):
attn_out, _ = self.attn(x, x, x, mask)
x = self.norm1(x + self.dropout1(attn_out)) # Add & Norm
ff_out = self.feed_forward(x)
x = self.norm2(x + self.dropout2(ff_out)) # Add & Norm
return x
12:47 - 解码器层 (Decoder Layer)
04. 核心模块三:解码器层
比起来,编码器,解码器增添了一个交叉注意力层,并且,首个自注意力层纳入掩码机制,以此保证生成过程的时序约束。
核心组件:
掩码多头自注意力 (Masked Self-Attn)
编码器-解码器注意力 (Cross-Attn)
前馈网络层 (FFN)
关键流程:先是X,然后是Masked - Attn,接着是Add&Norm,再之后是Cross - Attn,随后又是Add&Norm,跟着是FFN,最后还是Add&Norm。
13:44 - Transformer核心优势回顾
05. 总结:Transformer核心优势回顾
优势说明
并行计算加速
完全挣脱循环依赖,训练速度显著提高,计算效率大大超越传统RNN架构。
全局依赖捕捉
随便建立任意俩词之间的那种关系并且直接进行建模,把距离限制予以打破,达成长程距离里面信息不出现损耗的传递并且将其实现。
卓越可扩展性
适合大规模预训练堆叠的是模块化结构,它身为BERT、GPT等大模型时代的技术基石。
核心洞察在于,Transformer凭借并行化,以及全局建模能力,对AI预训练范式进行了重构。
14:21 - 展望:应用与未来
05. 展望:应用与未来
Transformer不单纯只是一个模型,它更是一种全新的,具备强大能力的序列处理范式,这种范式被广泛应用于各个AI领域。
应用领域:
自然语言处理 (NLP)
计算机视觉 (CV)
多模态融合
总结:Transformer真正开启了人工智能的大模型时代
️ 图片索引序号文件名内容描述
01
01-标题页.png
Transformer的简介部分用于视频封面,以及标题页,其内容涵盖从原理开始直至代码实现。
02
02-RNN局限性.png
RNN的"阿喀琉斯之踵"——循环神经网络的两大核心瓶颈
03
03-整体架构.png
变换器整体架构的概览呈现,是关于编码器与解码器的双塔模型。
04
04-自注意力机制.png
自注意力的直观理解 - Q-K-V映射与注意力匹配流程
05
05-多头注意力.png
多头注意力,也就是Multi - Head Attention,它能够在多个维度上抓取捕捉,进而达到增强表达的效果。
06
06-前馈网络.png
前面进行馈送的网络,也就是Feed Forward Network,它有着进行相关非线性特征进行变换这样的情况。
07
07-编码器层.png
编码器层,也就是Encoder Layer,它是Transformer编码器层的内部结构。
08
08-解码器层.png
Transformer解码器层里的解码器层,其内部有着特定的结构。
09
09-核心优势.png
回顾Transformer的核心优势,包括并行计算,具备全局依赖,拥有可扩展性。
10
10-应用与未来.png
展望:应用与未来 - NLP、CV、多模态融合
原文链接
相关标签: # Transformer # 大模型 # AI # 人工智能 # 自然语言处理