bert
2023-09-16 22:02:22 1 举报
BERT模型
作者其他创作
大纲/内容
前馈神经网络(全连接层)
Input
Encoder2
Wn
Encoder1
Positional Encoding
归一化输入和输出
Encoder由多个Transformer block组成
W1
W2
Linear
W3
AngerHappySadHate
Add & Layer Normalization
......
多头注意力机制
Encoder12
InputEmbedding
Multi-Head Attention
Encoder11
Feed-Forward Network
增加非线性能力
softmax
…
收藏
收藏
0 条评论
回复 删除
下一页