国内有哪些gpt?
答案 1
目前国内较为流行的GPT模型主要包括:
1.中文BERT:基于Google的BERT模型,由北京大学和华为公司联合开发,用于中文文本处理。
2.中文GPT-2:由清华大学与哈工大合作开发,是一种能够生成人类般自然语言的预训练模型。
3.Ernie:由百度公司研发推出的预训练模型,支持多种自然语言任务,包括情感分析、关系抽取等方面。
4. GPT-Neo:由中国AI公司EleutherAI开发,是一个全球协作项目。它构建在 OpenAI 的 GPT 基础上,并且被称作“GPT-3 的开源替代品”,可以通过云计算平台进行训练和推理。
除此之外还有其他一些实现了预训练+微调的GPT变体,如T5、RoBERTa等。