https://github.com/open-webui/open-webui
Open WebUI 是一个用户友好的人工智能界面,支持完全离线操作,并支持多种大型语言模型(LLM)运行器,包括Ollama和兼容OpenAI的API。以下是Open WebUI的一些关键特性和详细信息:
关键特性
- 轻松设置:使用Docker或Kubernetes(kubectl, kustomize或helm)进行无缝安装,支持
:ollama
和:cuda
标签的镜像。 - Ollama/OpenAI API集成:轻松集成OpenAI兼容API和Ollama模型,自定义OpenAI API URL以链接到LMStudio、GroqCloud、Mistral、OpenRouter等。
- 细粒度权限和用户组:允许管理员创建详细的用户角色和权限,确保安全的用户环境。
- 响应式设计:在桌面PC、笔记本电脑和移动设备上提供无缝体验。
- 渐进式Web应用(PWA):在移动设备上提供类似原生应用的体验,支持localhost的离线访问。
- 全面支持Markdown和LaTeX:提升LLM体验,支持丰富的交互。
- 免提语音/视频通话:集成免提语音和视频通话功能,提供更动态和互动的聊天环境。
- 模型构建器:通过Web UI轻松创建Ollama模型,自定义聊天元素,并通过Open WebUI社区集成轻松导入模型。
- 原生Python函数调用工具:在工具工作区支持内置代码编辑器,通过添加纯Python函数实现与LLM的无缝集成。
- 本地RAG集成:支持Retrieval Augmented Generation(RAG),将文档交互无缝集成到聊天体验中。
- Web搜索RAG:使用SearXNG、Google PSE、Brave Search等提供商进行网络搜索,并将结果直接注入聊天体验。
- Web浏览能力:使用
#
命令后跟URL将网站内容直接集成到聊天体验中。 - 图像生成集成:使用AUTOMATIC1111 API、ComfyUI(本地)和OpenAI的DALL-E(外部)等选项,丰富聊天体验。
- 多模型对话:同时与多个模型互动,利用它们的独特优势获得最佳响应。
- 基于角色的访问控制(RBAC):确保安全访问,只有授权个人才能访问Ollama,独家模型创建/拉取权限保留给管理员。
- 多语言支持:通过我们的国际化(i18n)支持,用您的首选语言体验Open WebUI。
- Pipelines和Open WebUI插件支持:使用Pipelines插件框架将自定义逻辑和Python库无缝集成到Open WebUI中。
- 持续更新:致力于通过定期更新、修复和新功能改进Open WebUI。
安装方法
Open WebUI可以通过Python pip安装,也可以通过Docker快速开始。以下是一些安装选项:
- 通过Python pip安装:确保使用Python 3.11以避免兼容性问题。
- Docker安装:包括默认配置、仅OpenAI API使用、捆绑Ollama支持等多种安装方法。
- 其他安装方法:提供非Docker本地安装方法、Docker Compose、Kustomize和Helm等。
社区和支持
- Open WebUI社区:探索、下载和探索定制化的Modelfiles。
- 支持:如果有任何问题、建议或需要帮助,可以提出问题或加入Open WebUI Discord社区。
许可
该项目在MIT许可下授权,详情见LICENSE文件。
Open WebUI是一个功能丰富、易于使用的自托管WebUI,旨在为用户带来更好的人工智能体验。更多详细信息和特性,可以访问Open WebUI文档。