搜索
下载APP
CodeFuse-MFTCoder多任务微调代码大模型
认领
关注
0
粉丝
Codefuse-MFTCoder是一个开源的多任务代码大语言模型项目,包含代码大模型的模型、数据、训练等。项目框架项目优势多任务:一个模型同时支持多
知识
简介
Codefuse-MFTCoder是一个开源的多任务代码大语言模型项目,包含代码大模型的模型、数据、训练等。项目框架项目优势多任务:一个模型同时支持多个任务,会保证多个任务之间的平衡,甚至可以泛化到新的没有见过的任务上去;多模型:支持最新的多个开源模型,包括gpt-neox,llama,llama-...
更多
其它信息
授权协议
Apache
开发语言
Python
操作系统
跨平台
软件类型
开源软件
所属分类
神经网络/人工智能、 LLM(大语言模型)
开源组织
蚂蚁金服
地区
国产
适用人群
未知
时光轴
里程碑
1
LOG
0
2023
09-26
轻识收录
打卡
我要打卡
我要打卡
评价
0.0
(满分 10 分)
0 个评分
什么是点评分
图片
表情
视频
评价
全部评价( 0)
推荐率 100%
推荐
CodeFuse-MFTCoder多任务微调代码大模型
Codefuse-MFTCoder是一个开源的多任务代码大语言模型项目,包含代码大模型的模型、数据、
TigerBot多语言多任务大语言模型
TigerBot 是一个多语言多任务的大规模语言模型 (LLM)。根据 OpenAI Instruc
TigerBot多语言多任务大语言模型
TigerBot是一个多语言多任务的大规模语言模型(LLM)。根据OpenAIInstructGPT论文在公开NLP数据集上的自动评测,TigerBot-7B达到OpenAI同样大小模型的综合表现的9
CodeFuse-13B代码大语言模型
CodeFuse-13B是基于GPT-NeoX框架训练的13B参数代码生成模型,能够处理4096个字
CodeFuse-13B代码大语言模型
CodeFuse-13B是基于GPT-NeoX框架训练的13B参数代码生成模型,能够处理4096个字符的代码序列。该模型在1000BToken的代码、中文、英文数据数据集上进行预训练,覆盖超过40种编
WizardLM基于 LLaMA 的微调大语言模型
WizardLM 是一个经过微调的 7B LLaMA 模型。它通过大量具有不同难度的指令跟随对话进行
WizardLM基于 LLaMA 的微调大语言模型
WizardLM是一个经过微调的7BLLaMA模型。它通过大量具有不同难度的指令跟随对话进行微调。这个模型的新颖之处在于使用了LLM来自动生成训练数据。WizardLM模型使用一种名为Evol-Ins
YuLan-Chat基于中英文混合指令微调的大语言对话模型
YuLan-Chat是基于高质量中英文混合指令微调的大语言对话模型。YuLan-Chat采用LLaMA作为底座,采用精心优化的高质量中英文混合指令进行微调。其中YuLan-Chat-65B模型目前能够
YuLan-Chat基于中英文混合指令微调的大语言对话模型
YuLan-Chat 是基于高质量中英文混合指令微调的大语言对话模型。YuLan-Chat 采用 L
本草基于中文医学知识的 LLaMA 微调模型
本草【原名:华驼(HuaTuo)】是基于中文医学知识的 LLaMA 微调模型。此项目开源了经过中文医