-
Notifications
You must be signed in to change notification settings - Fork 2.3k
Home
川虎Chat (Chuanhu Chat)1 为 ChatGPT / ChatGLM / LLaMA / StableLM / MOSS 等多种 LLM 提供了一个轻快好用的Web图形界面。
特色功能:
流式传输 / 无限对话 / 保存对话 / 预设Prompt集 / 联网搜索 / 根据文件回答
渲染LaTeX / 渲染表格 / 代码高亮 / 自动亮暗色切换 / 自适应界面 / “小而美”的体验
一键复制代码 / 一键复制输出 / 一键切换markdown渲染显示 / 自动保存历史 / 显示用量
自定义api-base / 多参数可调 / 多API Key均衡负载 / 多用户显示 / 适配GPT-4 / 支持本地部署LLM
支持通过API调用的大语言模型:
支持本地部署使用的大语言模型:
自主运行模式:
以下内容仅仅是一些精简的描述。如果您想了解更多细节,请您点击相关的超链接。
更多细节请查看 wiki 目录进入具体页面查看。
川虎Chat 可以一键轻松部署在 Hugging Face 上,同时,您也可以在本地计算机或远程服务器上部署本程序。我们还提供了 Docker 镜像。
参见:安装教程
川虎Chat 具有丰富的配置项,同时支持多个开源大语言模型。我们提供了自动更新等诸多使用技巧。
参见:使用教程
川虎Chat 拥有许多实用功能,包括渲染LaTeX、联网搜索、切换源输出与markdown渲染显示等,您还可以细致地调整大语言模型的各种高级参数,让你得到满意的回答。
参见:使用教程
如果您有各种问题或疑虑,请首先在此处查看。该页面提供了一些常见问题的解答、故障排除和已知问题的信息。
参见:常见问题
我们欢迎任何形式的贡献!这是一份简短的社区贡献指南:如何做出贡献?
如果您在使用过程中遇到任何问题,在反馈前,可以优先考虑:
- 在本 wiki 的常见问题中查找您的问题
- 前往 GitHub Issues 检索同类反馈
- 前往 GitHub Discussions 发起讨论
- 前往 GitHub Issues 报告问题或故障
- 前往 GitHub Issues 请求新功能
如果您有能力并希望帮助开发,那再好不过了!请参考提交代码指南。
Note
We would greatly appreciate it if you could help contribute a translation. Please refer to Localization page for more information.
川虎Chat 基于GPL3.0协议开源,您被允许在GNU通用公共许可协议的约束下对其进行再发布及修改。
参见:使用许可
该页面列出了 川虎Chat 截至目前的所有历史版本和提交。
参见:更新日志
- 本项目原名为“川虎ChatGPT”,自V3起加入了其他LLM支持,改名为“川虎Chat”。↩︎