20B的体量,70B的性能,书生·浦语InternLM-20B带领开源大模型进入新时代
9月20日,上海人工智能实验室(上海AI实验室)与商汤科技联合香港中文大学和复旦大学正式推出书生·浦语大模型(InternLM)200亿参数版本InternLM-20B,并在阿里云魔搭社区(ModelScope)开源首发。同时,书生·浦语面向大模型研发与应用的全链条工具链全线升级,与InternLM-20B一同继续全面开放,向企业和开发者提供免费商用授权。
浪潮之上,大模型的应用价值日趋受到关注。正如历史上的任何一项新技术,其生命力终究要回归到是否可以广泛落地,为世界带来积极且真实的变化。在此背景下,上海AI实验室联合多家机构推出了中量级参数的InternLM-20B大模型,性能先进且应用便捷,以不足三分之一的参数量,达到了当前被视为开源模型标杆的Llama2-70B的能力水平。
代码库链接:https://github.com/InternLM/InternLM
魔搭社区链接:https://modelscope.cn/organization/Shanghai_AI_Laboratory
书生·浦语“增强版”:增的不只是量
架构增强:深结构、长语境
综合性能增强:多个评测中领先
调用工具能力增强:不会也能学
价值观增强:更安全的开源模型
对话能力增强:语境长度达到16K
全链条工具体系再巩固,全面升级
书生·万卷是上海AI实验室开源的多模态语料库,包含文本数据集、图文数据集、视频数据集三部分,数据总量超过2TB。目前,书生·万卷1.0已被应用于书生·多模态、书生·浦语的训练。通过对高质量语料的“消化”,书生系列模型在语义理解、知识问答、视觉理解、视觉问答等各类生成式任务表现出优异性能。
预训练-InternLM高效预训练框架
除大模型外,InternLM代码库开源了预训练框架InternLM-Train。深度整合Transformer模型算子提升了训练效率,并提出了独特的Hybrid Zero技术,实现了计算和通信的高效重叠,大幅降低训练过程中的跨节点通信流量。得益于极致的性能优化,实现了千卡并行计算的高效率,训练性能达行业领先水平。
微调-InternLM全参数微调、XTuner轻量级微调
InternLM支持对模型进行全参数微调,支持丰富的下游应用。同时,低成本大模型微调工具箱XTuner也在近期开源,支持多种大模型及LoRA、QLoRA等微调算法,通过XTuner,最低仅需 8GB 显存即可对7B模型进行低成本微调,20B模型的微调,在24G显存的消费级显卡上就能完成。
部署-LMDeploy支持十亿到千亿级参数语言模型的高效推理
LMDeploy涵盖了大模型的全套轻量化、推理部署和服务解决方案,支持了从十亿到千亿级参数的高效模型推理,在吞吐量等性能上超过FasterTransformer、vLLM和Deepspeed等社区主流开源项目。
评测-OpenCompass一站式、全方位大模型评测平台
OpenCompass是上海AI实验室开源的大模型评测平台,构建了包含学科、语言、知识、理解、推理五大维度的评测体系,支持超过50个评测数据集和30万道评测题目,支持零样本、小样本及思维链评测,是目前最全面的开源评测平台。自7月发布以来,受到学术界和产业界广泛关注,目前已为阿里巴巴、腾讯、清华大学等数十所企业及科研机构广泛应用于大模型研发。
应用-Lagent轻量灵活的智能体框架
书生·浦语团队同时开源了智能体框架,支持用户快速将一个大语言模型转变为多种类型的智能体,并提供典型工具为大语言模型赋能。Lagent开源框架支持InternLM、Llama及ChatGPT等大语言模型,并集合了ReAct、AutoGPT 及ReWoo等多种类型的智能体能力。在Lagent的加持下,这些智能体可调用大语言模型进行规划推理和工具调用,并可在执行中及时进行反思和自我修正。
全链条工具体系开源链接:
“书生·万卷”预训练语料
https://github.com/opendatalab/WanJuan1.0
InternLM预训练框架
https://github.com/InternLM/InternLM
XTuner微调工具箱
https://github.com/InternLM/xtuner
LMDeploy推理工具链
https://github.com/InternLM/lmdeploy
OpenCompas大模型评测平台
https://github.com/open-compass/opencompass
Lagent智能体框架
https://github.com/InternLM/lagent