transformer
2022-09-06 11:12:58 245 举报
Transformer是一种基于自注意力机制的深度学习模型,被广泛应用于自然语言处理领域。它由编码器和解码器两部分组成,能够处理多种任务,如机器翻译、文本摘要等。与传统的循环神经网络不同,Transformer采用并行计算的方式,大大提高了训练效率。此外,Transformer还具有较强的可扩展性,可以通过增加层数或调整参数来适应不同的任务需求。近年来,随着深度学习技术的不断发展,Transformer已经成为了NLP领域的主流模型之一。
作者其他创作
大纲/内容
Add &Norm
Multi-Head Attention
Softmax
Feed Forward
Positional Encoding
Input Embedding
Linear
N×
MaskedMulti-Head Attention
OutputProbabilities
Output Embedding
0 条评论
回复 删除
下一页