GPT1.0

2024-06-06 10:11:55 10 举报
GPT(Generative Pre-trained Transformer)是一种基于Transformer架构的预训练语言模型,由OpenAI开发。GPT模型通过在大量文本数据上进行预训练,学习到语言的通用表示,然后可以在各种下游任务上进行微调,如文本生成、翻译、摘要等。
Decoder
GPT
生成模型
大语言模型
自然语言处理
作者其他创作
大纲/内容
评论
0 条评论
下一页