Chinese-Vicuna基于 LLaMA 的中文大语言模型联合创作 · 2023-09-25 23:27Chinese-Vicuna 是一个中文低资源的 LLaMA+Lora 方案。 项目包括 finetune 模型的代码 推理的代码 仅使用 CPU 推理的代码 (使用 C++) 下载/转换/量化 Facebook llama.ckpt 的工具 其他应用 浏览 7点赞 评论 收藏 分享 手机扫一扫分享 编辑 分享 举报 评论图片表情视频评价全部评论推荐 Chinese-Vicuna基于 LLaMA 的中文大语言模型Chinese-Vicuna是一个中文低资源的LLaMA+Lora方案。项目包括finetune模型的代码推理的代码仅使用CPU推理的代码(使用C++)下载/转换/量化Facebookllama.ckWizardLM基于 LLaMA 的微调大语言模型WizardLM 是一个经过微调的 7B LLaMA 模型。它通过大量具有不同难度的指令跟随对话进行WizardLM基于 LLaMA 的微调大语言模型WizardLM是一个经过微调的7BLLaMA模型。它通过大量具有不同难度的指令跟随对话进行微调。这个模型的新颖之处在于使用了LLM来自动生成训练数据。WizardLM模型使用一种名为Evol-InsLLaMA大语言模型LLaMA 语言模型全称为 "Large Language Model Meta AI",是 MetLLaMA大语言模型LLaMA语言模型全称为"LargeLanguageModelMetaAI",是Meta的全新大型语言模型(LLM),这是一个模型系列,根据参数规模进行了划分(分为70亿、130亿、330亿和650亿LaWGPT基于中文法律知识的大语言模型LaWGPT 是一系列基于中文法律知识的开源大语言模型。该系列模型在通用中文基座模型(如 ChineLaWGPT基于中文法律知识的大语言模型LaWGPT是一系列基于中文法律知识的开源大语言模型。该系列模型在通用中文基座模型(如Chinese-LLaMA、ChatGLM等)的基础上扩充法律领域专有词表、大规模中文法律语料预训练,增强了大模型本草基于中文医学知识的 LLaMA 微调模型本草【原名:华驼(HuaTuo)】是基于中文医学知识的LLaMA微调模型。此项目开源了经过中文医学指令精调/指令微调(Instruct-tuning)的LLaMA-7B模型。通过医学知识图谱和GPT3本草基于中文医学知识的 LLaMA 微调模型本草【原名:华驼(HuaTuo)】是基于中文医学知识的 LLaMA 微调模型。此项目开源了经过中文医Chinese-LLaMA-Alpaca中文 LLaMA & Alpaca 大模型Chinese-LLaMA-Alpaca包含中文LLaMA模型和经过指令微调的Alpaca大型模型。这些模型在原始LLaMA的基础上,扩展了中文词汇表并使用中文数据进行二次预训练,从而进一步提高了对中点赞 评论 收藏 分享 手机扫一扫分享 编辑 分享 举报