如何用清华 ChatGLM 微调一个私域大模型

共 772字,需浏览 2分钟

 ·

2023-09-30 05:14

曹政,曹大是我们圈子里公认的大佬。他在技术上不仅早早领先,在思维认知领域更是帮助很多小伙伴快速成长。

没有 ChatGPT 之前,我一直在想,能否将曹大的思维,直接植入过来,就跟无崖子传输功力,头碰头就行。当然我多想了 !!

ChatGPT 出来后,快速获取通识变得异常高效。但解决问题的思考模型,还是缺少系统性的植入。直到 LLaMa, ChatGLM 开源后,我才发觉,奇点真的可能到了,微调就能达到制作私域内容数字分身的效果。

于是,周末我趁着大块时间,一鼓作气,把微调这个事儿,给办了。用的微调语料当然是曹大的 500+ 篇公众号文章。

以下是我的制作步骤:

  1.  下载清华 ChatGLM 2 6B 的大模型

  2.  下载 github 清华微调套件

  3.   利用 ChatGPT 3.5 制作微调语料

4.   开始训练 GLM 大模型,得到 checkpoint

下面看看效果:

ffa82deb1844b5f0012de91a9d5d9384.webp


89eab6e68766993da5ec3e8e8008524d.webp


更详细的测评,我上传到了视频号:

微调前

微调后

对于技术感兴趣的同学,我分享个用 ChatGPT 3.5 打标注,组训练数据集的技巧吧。除了人工标注数据外,GPT 在这方面非常有优势。

下面是我用到的 Prompt:

4040e0a6d8a8c0ec1027a4321d0d7f1f.webp

上面微调前后对比图中,用到的微调语料数据集,就是这段 Prompt 生成的。如果用 GPT 4 的话,效果更好,但费用也更高。

下面带个货,Prompt 如此重要的技能,无论工资涨没涨,买书学技能的银子大家肯定舍得花的,不用 79,一半就成,哈哈哈哈哈:

浏览 12
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报