-
Notifications
You must be signed in to change notification settings - Fork 2.3k
Home
川虎Chat (Chuanhu Chat)1 为 ChatGPT / ChatGLM / LLaMA / StableLM / MOSS 等多种 LLM 提供了一个轻快好用的Web图形界面和众多附加功能。
目前支持模型:
API 调用模型 | 备注 | 本地部署模型 | 备注 |
---|---|---|---|
ChatGPT(GPT-4) | 支持微调 gpt-3.5 | ChatGLM (ChatGLM2) | |
Azure OpenAI | LLaMA | 支持 Lora 模型 | |
Google PaLM | 不支持流式传输 | StableLM | |
讯飞星火认知大模型 | MOSS | ||
Inspur Yuan 1.0 | 通义千问 | ||
MiniMax | |||
XMChat | 不支持流式传输 | ||
Midjourney | 不支持流式传输 | ||
Claude |
以下内容仅仅是一些精简的描述。如果您想了解更多细节,请您点击相关的超链接。
更多细节请查看 wiki 目录进入具体页面查看。
川虎Chat 可以一键轻松部署在 Hugging Face 上,同时,您也可以在本地计算机或远程服务器上部署本程序。我们还提供了 Docker 镜像。
参见:安装教程
川虎Chat 具有丰富的配置项,同时支持多个开源大语言模型。我们提供了自动更新等诸多使用技巧。
参见:使用教程
川虎Chat 拥有许多实用功能,包括渲染LaTeX、联网搜索、切换源输出与markdown渲染显示等,您还可以细致地调整大语言模型的各种高级参数,让你得到满意的回答。
参见:使用教程
如果您有各种问题或疑虑,请首先在此处查看。该页面提供了一些常见问题的解答、故障排除和已知问题的信息。
参见:常见问题
我们欢迎任何形式的贡献!这是一份简短的社区贡献指南:如何做出贡献?
如果您在使用过程中遇到任何问题,在反馈前,可以优先考虑:
- 在本 wiki 的常见问题中查找您的问题
- 前往 GitHub Issues 检索同类反馈
- 前往 GitHub Discussions 发起讨论
- 前往 GitHub Issues 报告问题或故障
- 前往 GitHub Issues 请求新功能
如果您有能力并希望帮助开发,那再好不过了!请参考提交代码指南。
Note
We would greatly appreciate it if you could help contribute a translation. Please refer to Localization page for more information.
川虎Chat 基于GPL3.0协议开源,您被允许在GNU通用公共许可协议的约束下对其进行再发布及修改。
参见:使用许可
该页面列出了 川虎Chat 截至目前的所有历史版本和提交。
参见:更新日志
-
本项目原名为“川虎ChatGPT”,自V3起加入了其他LLM支持,改名为“川虎Chat”。
(我们还发现很多用户习惯使用“川虎GPT”等类似的错误名称,但项目其实叫“川虎Chat”。)↩︎