之前在玩 Colab 和 Stable Diffusion,所以自然而然,也会进一步拓展到 LLM 领域。
说到底,我不算技术人员,甚至连炼丹师都算不上。以下内容不涉及什么具体的模型训练或者部署,只是结合试用和一些搜索到的资料,谈谈感受,没什么技术含量。
首先是个人应用方向,主要是 LocalLLM。从应用的角度来讲,公开的 OpenAI api、Bing、Bard、Claude 已经完全够用了,只有专业内容需要微调或者“非道德”内容才需要私人模型。
这里我主要关注 ~13B 或以下模型,原因是量化后能够在 Colab 上跑,根据 Steam 的统计,目前最主流的显卡还是 3060、2060、1060,分别对应 12G、12G、6G VRAM,也就是能跑 ~13B、~13B、~7B 模型。所以 ~13B 比较具有现实意义。
路径一:直接上中文模型
先来看几个 LeaderBoard:OpenCompass、C-Eval、HF-zh_models
可以看到,公开的模型中,能力比较强的有阿里的 Qwen-14B 和清华的 ChatGLM3-6B。
其中,Qwen-14B 有个变体版本:CausalLM-14B。这个模型使用了 Qwen-14B 的权重,加入一些其他数据集,最终搓了一个无审核的版本,经过量化后刚刚好可以在 Colab 上运行。
CausalLM 的表现实在过于优秀,所以截图不便放出。
ChatGLM3-6B 是 62 亿参数蒸馏+量化后 6G VRAM 就能跑,很有潜力,但可能不是未来。
还有一些模型,诸如商汤的 SkyWork-13B,vivo 的 BlueLM-7B,也在 trending 上,不过还有待更多验证。
路径二:用英文模型+LoRA
(2024/01)纠正:早期我理解 LoRA 是一个万能插件,实际上是错误的。应该说这个方案是在英文模型上用中文数据集再训练。现在靠这个方法汉化的好像不多见了,因为已经有了比较好的中文大模型基底。
第一条路其实已经足够好了,但还有其他选择。
第二条路是英文模型+LoRA,我试了下 Chinese-Wizard-Vicuna-13B-GPTQ,这是一个使用了来自科大讯飞 Chinese-LLaMA-Alpaca 的模型,总体效果还不错。能输出流畅的中文,但不如原生接地气。
⚠NSFW 点击查看测试结果
以下是我对 Uncensored 的测试,其实还是用了一些 Jailbreak Prompt
![](https://img.liedown.win/blog/2023/11-965f742dcebad9a74505db4d9d0c0705.png)
创作能力大概强于 ChatGPT 3.5,和 Claude-Slack 持平。这效果已经非常不错了,再回头看 CausalLM 就能理解为什么不便放出,因为太过逆天。
如果单看 Chinese-LLaMA-Alpaca,评分并不算很好,但作为一个 LoRA,配合会中文(但中文不太好)的英文模型,效果就很不错。此外,我测试用的是一期模型,现在 Chinese-LLaMA-Alpaca 已经有了二代,扩展了词表,相信效果会更好。
同理,相信 UltraLM、Nous-Hermes、Pygmalion、Mistral 等模型加 LoRA 效果也会不错。我比较好奇的是,如果这个 LoRA 和 MLewd 结合会不会变得逆天。
这里再提两个 LoRA:
一是 Llama2-Chinese,号称“最好的中文Llama大模型”,我试下来实际效果不太好。
二是 SuperHOT,一个专注于 NSFW 的 LoRA。一些英文 Uncensored 模型(例如之前的 Wizard-Vicuna-13B-Uncensored-HF)在加入中文 LoRA 后会出现轻微的 Censored 迹象,可能可以通过这个 LoRA 纠正。
路径三:RWKV+Finetune
由于 Transformer 对内存的需求是二次方增长的,而 RWKV 对内存的需求只有 O(1),这对于本地多轮对话至关重要。
RWKV 发展神速,我在写这篇文章的时候已经有 V5 占位了,其中一个值得关注的微调模型是 LocalNSFW/RWKV-Claude。从名字就能看出是干什么的,介绍是“项目的初心是,摆脱大公司的控制,建立所有人都能涩涩的本地大语言模型。”
这个模型的参数为 7B,数据来自用户贡献的和 Claude-Slack 的对话,可以归结为通过 Claude 蒸馏的 RPG 垂直模型。这类模型在各垂直领域都比较多。
结论:
目前,在免费部署的前提下,Causal-14B 是最好的,Colab 或者 3060 都能跑。如果要在本地部署,VRAM 又比较紧张,那么通用模型选 ChatGLM3-6B,专注于涩涩用 RWKV-Claude。
我认为 RWKV 的潜力最大,尤其是在这个 VRAM 遇到严重瓶颈的时代。
英文模型+LoRA 的情况目前只能算是备选中的备选,通常中文模型本身就支持英文,而且英文不差。除非未来英文模型超越中文模型太多,这套方案才有可能成为首选。多语言模型直接融合可能是更普遍的做法。