搜索
下载APP
书生·浦语多语言大型语言模型
认领
关注
0
粉丝
InternLM(书生·浦语)是在过万亿 token 数据上训练的多语千亿参数基座模型。通过多阶段的渐进式训练,InternLM 基座模型具有较高的知
知识
简介
InternLM(书生·浦语)是在过万亿 token 数据上训练的多语千亿参数基座模型。通过多阶段的渐进式训练,InternLM 基座模型具有较高的知识水平,在中英文阅读理解、推理任务等需要较强思维能力的场景下性能优秀,在多种面向人类设计的综合性考试中表现突出。在此基础上,通过高质量的人类标注对话数...
更多
其它信息
授权协议
Apache-2.0
开发语言
Python
操作系统
跨平台
软件类型
开源软件
所属分类
神经网络/人工智能、 LLM(大语言模型)
开源组织
无
地区
国产
适用人群
未知
时光轴
里程碑
1
LOG
0
2023
09-25
轻识收录
打卡
我要打卡
我要打卡
评价
0.0
(满分 10 分)
0 个评分
什么是点评分
图片
表情
视频
评价
全部评价( 0)
推荐率 100%
推荐
书生·浦语多语言大型语言模型
InternLM(书生·浦语)是在过万亿 token 数据上训练的多语千亿参数基座模型。通过多阶段的
MPT-30B大型语言模型
MPT-30B 是 Mosaic Pretrained Transformer (MPT) 模型系列
MPT-30B大型语言模型
MPT-30B是MosaicPretrainedTransformer(MPT)模型系列的一部分,它使用了一个为高效训练和推理而优化的transformer架构,并在1Ttokens的英文文本和代码上
TigerBot多语言多任务大语言模型
TigerBot 是一个多语言多任务的大规模语言模型 (LLM)。根据 OpenAI Instruc
TigerBot多语言多任务大语言模型
TigerBot是一个多语言多任务的大规模语言模型(LLM)。根据OpenAIInstructGPT论文在公开NLP数据集上的自动评测,TigerBot-7B达到OpenAI同样大小模型的综合表现的9
XVERSE-13B支持多语言的大语言模型
XVERSE-13B 是由深圳元象科技自主研发的支持多语言的大语言模型(LargeLanguageModel),主要特点如下:模型结构:XVERSE-13B使用主流Decoder-only的标准Tra
XVERSE-13B支持多语言的大语言模型
XVERSE-13B 是由深圳元象科技自主研发的支持多语言的大语言模型(Large Language
GPT-2基于 transformer 的大型语言模型
GPT-2是一种基于transformer 的大型语言模型,具有15亿个参数,在800万网页数据集上进行训练。它是论文《语言模型是无人监督的多任务学习者》(LanguageModelsareUnsup
PaLM 2谷歌下一代大型语言模型
PaLM 2 是谷歌推出的下一代大型语言模型。擅长高级推理任务,包括代码和数学、分类和问答、翻译和多
GPT-2基于 transformer 的大型语言模型
GPT-2 是一种基于 transformer 的大型语言模型,具有 15 亿个参数,在 800 万