一.基于或利用ChatGLM-6B的开源项目

1.chatgpt_academic

https://github.com/binary-husky/gpt_academic支持ChatGLM-6B的学术写作与编程工具箱,具有模块化和多线程调用LLM的特点,可并行调用多种LLM。

2.闻达

基于ChatGLM6B赓续造轮子项目汇总

https://github.com/l15y/wenda

大型措辞模型调用平台,基于 ChatGLM-6B 实现了类 ChatPDF 功能。

3.glm-bot

https://github.com/initialencounter/glm-bot

将ChatGLM接入Koishi可在各大谈天平台上调用ChatGLM。

4.Chinese-LangChain

https://github.com/yanqiangmiffy/Chinese-LangChain

中文langchain项目,基于ChatGLM-6b+langchain实现本地化知识库检索与智能答案天生,增加web search功能、知识库选择功能和支持知识增量更新。

5.bibliothecarius

https://github.com/coderabbit214/bibliothecarius

快速构建做事以集成您确当地数据和AI模型,支持ChatGLM等本地化模型接入。

6.langchain-ChatGLM

https://github.com/imClumsyPanda/langchain-ChatGLM

基于本地知识的ChatGLM 运用,基于LangChain。

7.ChatGLM-web

https://github.com/NCZkevin/chatglm-web

基于FastAPI和Vue3搭建的ChatGLM演示网站(支持chatglm流式输出、前端调度模型参数、高下文选择、保存图片、知识库问答等功能)。

8.ChatGLM-6B-Engineering

https://github.com/LemonQu-GIT/ChatGLM-6B-Engineering

基于ChatGLM-6B后期调教,网络爬虫及 Stable Diffusion 实现的网络搜索及图片天生。

二.对ChatGLM-6B进行微调的开源项目

1.InstructGLM

https://github.com/yanqiangmiffy/InstructGLM基于ChatGLM-6B进行指令学习,汇总开源中英文指令数据,基于Lora进行指令数据微调,开放了Alpaca、Belle微调后的Lora权重,修复web_demo重复问题。

2.ChatGLM-Finetuning

https://github.com/liucongg/ChatGLM-Finetuning

基于ChatGLM-6B模型,进行下贱详细任务微调,涉及Freeze、Lora、P-tuning等,并进行实验效果比拟。

3.ChatGLM-Tuning

https://github.com/mymusise/ChatGLM-Tuning

基于LoRA对ChatGLM-6B进行微调。
类似的项目还包括Humanable ChatGLM/GPT Fine-tuning|ChatGLM

https://github.com/hscspring/hcgf

4.Med-ChatGLM

https://github.com/SCIR-HI/Med-ChatGLM

基于中文医学知识的ChatGLM模型微调。