RedPajama大语言模型联合创作 · 2023-09-25 23:18RedPajama 项目旨在创建一套领先的全开源大语言模型。目前,该项目已完成了第一步,成功复制了 LLaMA 训练数据集超过 1.2 万亿个数据 token。该项目由Together、Ontocord.ai、ETH DS3Lab、斯坦福大学 CRFM、Hazy Research 和 MILA 魁北克 AI 研究所联合开发。 RedPajama 包含三个主要组成部分:预训练数据、基础模型和指令调优数据与模型。 浏览 2点赞 评论 收藏 分享 手机扫一扫分享 编辑 分享 举报 评论图片表情视频评价全部评论推荐 RedPajama大语言模型RedPajama项目旨在创建一套领先的全开源大语言模型。目前,该项目已完成了第一步,成功复制了LLaMA训练数据集超过1.2万亿个数据token。该项目由Together、Ontocord.ai、EOPT-175B大语言模型OPT-175B 是 Meta 开源的大语言模型,拥有超过 1750 亿个参数——和 GPT-3 相OPT-175B大语言模型OPT-175B是Meta开源的大语言模型,拥有超过1750亿个参数——和GPT-3相当。相比GPT-3,OPT-175B的优势在于它完全免费。Meta还公布了代码库、开发过程日志、数据、研究论文和其LLaMA大语言模型LLaMA语言模型全称为"LargeLanguageModelMetaAI",是Meta的全新大型语言模型(LLM),这是一个模型系列,根据参数规模进行了划分(分为70亿、130亿、330亿和650亿LLaMA大语言模型LLaMA 语言模型全称为 "Large Language Model Meta AI",是 MetBBT-2通用大语言模型BBT-2 是包含 120 亿参数的通用大语言模型,在 BBT-2 的基础上训练出了代码,金融,文生BBT-2通用大语言模型BBT-2是包含120亿参数的通用大语言模型,在BBT-2的基础上训练出了代码,金融,文生图等专业模型。基于BBT-2的系列模型包括:BBT-2-12B-Text:120亿参数的中文基础模型BBT-2ChatYuan对话语言大模型ChatYuan是一个支持中英双语的功能型对话语言大模型。ChatYuan-large-v2使用了和v1版本相同的技术方案,在微调数据、人类反馈强化学习、思维链等方面进行了优化。ChatYuan-laCodeFuse-13B代码大语言模型CodeFuse-13B是基于GPT-NeoX框架训练的13B参数代码生成模型,能够处理4096个字CodeFuse-13B代码大语言模型CodeFuse-13B是基于GPT-NeoX框架训练的13B参数代码生成模型,能够处理4096个字符的代码序列。该模型在1000BToken的代码、中文、英文数据数据集上进行预训练,覆盖超过40种编点赞 评论 收藏 分享 手机扫一扫分享 编辑 分享 举报