现在LLM 的大小为什都设计成6/7B、13B和130B几个档次?
共 2887字,需浏览 6分钟
·
2024-07-18 20:33
链接:https://www.zhihu.com/question/627258986/answer/3262812950
答案简单,就是匹配显存。
6B模型可以在在12/16/24G显存的消费级显卡部署和训练。如果一个公司的模型不打算在消费级显卡部署,通常不会训6B这个规模。而且通常还会有一个1.4b或者2.8b,这个是比较适合在手机、车载端量化部署的尺寸。
评论