简介
GLM (General Language Model) 是清华大学推出的一种使用自回归填空目标进行预训练的通用语言模型,可以针对各种自然语言理解和生成任务进行微调。GLM 通过添加 2D 位置编码并允许以任意顺序预测跨度来改进空白填充预训练,从而在 NLU 任务上获得优于 BERT 和 T5 的性... 更多
其它信息
地区
国产
开发语言
Python
SHELL
开源组织
无
所属分类
神经网络/人工智能、 LLM(大语言模型)
授权协议
MIT
操作系统
跨平台
收录时间
2023-09-25
软件类型
开源软件
适用人群
未知
时光轴
里程碑1
LOG0
2023
2023-09
轻识收录
评价
0.0(满分 10 分)0 个评分
什么是点评分
全部评价(
0)
推荐率
100%
推荐
ERNIE基于持续学习的语义理解预训练框架
ERNIE是百度开创性提出的基于知识增强的持续学习语义理解框架,该框架将大数据预训练与多源丰富知识相结合,通过持续学习技术,不断吸收海量文本数据中词汇、结构、语义等方面的知识,实现模型效果不断进化。E
ERNIE基于持续学习的语义理解预训练框架
0
DELTA自然语言理解模型训练平台
滴滴正式宣布开源基于深度学习的语音和自然语言理解模型训练平台DELTA,以进一步帮助AI开发者创建、部署自然语言处理和语音模型,构建高效的解决方案,助力NLP应用更好落地。DELTA主要基于Tenso
DELTA自然语言理解模型训练平台
0
PaddlePALMNLP 大规模预训练和多任务学习框架
PaddlePALM (PArallel Learning from Multi-tasks) 是一
PaddlePALMNLP 大规模预训练和多任务学习框架
0
PaddlePALMNLP 大规模预训练和多任务学习框架
PaddlePALM(PArallelLearningfromMulti-tasks)是一个灵活,通用且易于使用的NLP大规模预训练和多任务学习框架。PALM是一个旨在快速开发高性能NLP模型的上层框
PaddlePALMNLP 大规模预训练和多任务学习框架
0
Transformers TF-PT用于 TF 2.0 和 PyTorch 的自然语言处理框架
Transformers(以往称为 pytorch-transformers 和 pytorch-p
Transformers TF-PT用于 TF 2.0 和 PyTorch 的自然语言处理框架
0