# polymind **Repository Path**: openeuler/polymind ## Basic Information - **Project Name**: polymind - **Description**: PolyMind is an intelligent orchestration platform that can unify the scheduling of LLM, MCP services, and agents to achieve multimodal cognitive collaboration and autonomous decision-making. - **Primary Language**: Unknown - **License**: Apache-2.0 - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 2 - **Created**: 2025-09-04 - **Last Updated**: 2025-09-15 ## Categories & Tags **Categories**: Uncategorized **Tags**: sig-intelligence ## README
PolyMind是一个功能丰富的AI助手,支持主流语言模型,为DevStation发行版提供环境感知和强大的工具调度能力。
## 📑 目录 - [📑 目录](#-目录) - [🚀 项目简介](#-项目简介) - [💡 为什么选择PolyMind](#-为什么选择PolyMind) - [🔥 主要功能](#-主要功能) - [🤖 支持的模型提供商](#-支持的模型提供商) - [兼容任何OpenAI/Gemini/Anthropic API格式的模型提供商](#兼容任何openaigeminianthropic-api格式的模型提供商) - [🔍 使用场景](#-使用场景) - [📦 快速开始](#-快速开始) - [下载安装](#下载安装) - [配置模型](#配置模型) - [开始对话](#开始对话) - [💻 开发指南](#-开发指南) - [安装依赖](#安装依赖) - [开始开发](#开始开发) - [构建](#构建) - [👥 社区与贡献](#-社区与贡献) - [⭐ Star历史](#-star历史) - [👨💻 贡献者](#-贡献者) - [📃 许可证](#-许可证) ## 🚀 项目简介 PolyMind是一款基于[DeepChat](https://github.com/thinkinaixyz/deepchat)开发的AI智能助手,为DevStation发行版提供环境感知和强大的工具调度能力。 作为一个跨平台的AI助手应用,不仅支持基础的聊天功能,还提供了搜索增强、工具调用、多模态交互等高级特性,让AI能力的应用更加便捷和高效。 ## 💡 为什么选择PolyMind 与其他AI工具相比,PolyMind具有以下独特优势: - **多模型统一管理**:一个应用支持几乎所有主流LLM,无需在多个应用间切换 - **本地模型无缝集成**:内置Ollama支持,无需命令行操作即可管理和使用本地模型 - **高级工具调用**:内置MCP支持,无需额外配置即可使用代码执行、网络访问等工具 - **openEuler社区友好**:集成DevStore、openEuler Intelligence等openEuler社区开源项目 - **系统提示词管理**:强大的系统提示词管理,让通用AI更加高效和智能 ## 🔥 主要功能 - 🌐 **多种云端LLM提供商支持**:DeepSeek、OpenAI、SiliconFlow、Grok、Gemini、Anthropic等 - 🏠 **本地模型部署支持**: - 集成Ollama,提供全面的管理功能 - 无需命令行操作即可控制和管理Ollama模型的下载、部署和运行 - 🚀 **丰富易用的聊天功能** - 完整的Markdown渲染,代码块渲染基于业界顶级的 [CodeMirror](https://codemirror.net/) 实现 - 多窗口+多Tab架构,各个维度支持多会话并行运行,就像使用浏览器一样使用大模型,无阻塞的体验带来了优异的效率 - 支持 Artifacts 渲染,多样化结果展示,MCP集成后显著节省token消耗 - 消息支持重试生成多个变体;对话可自由分支,确保总有合适的思路 - 支持渲染图像、Mermaid图表等多模态内容;支持GPT-4o,Gemini,Grok的文本到图像功能 - 支持在内容中高亮显示搜索结果等外部信息源 - 🔍 **强大的搜索扩展能力** - 通过MCP模式内置集成博查搜索、Brave Search等 领先搜索API,让模型智能决定何时搜索 - 通过模拟用户网页浏览,支持Google、Bing、百度、搜狗公众号搜索等主流搜索引擎,使LLM能像人类一样阅读搜索引擎 - 支持读取任何搜索引擎;只需配置搜索助手模型,即可连接各种搜索源,无论是内部网络、无API的引擎,还是垂直领域搜索引擎,作为模型的信息源 - 🔧 **出色的MCP(Model Context Protocol)支持** - 完整支持了 MCP 协议中 Resources/Prompts/Tools 三大核心能力 - 支持语义工作流,通过理解任务的意义和上下文,实现更复杂和智能的自动化 - 极其用户友好的配置界面 - 美观清晰的工具调用显示 - 详细的工具调用调试窗口,自动格式化工具参数和返回数据 - 内置 Node.js 运行环境;类似 npx/node 的服务无需额外配置开箱即用 - 支持 StreamableHTTP/SSE/Stdio 协议 Transports - 支持 inMemory 服务,内置代码执行、网络信息获取、文件操作等实用工具;开箱即用,无需二次安装即可满足大多数常见用例 - 通过内置 MCP 服务,将视觉模型能力转换为任何模型都可通用的函数 - 💻 **多平台支持**:Windows、macOS、Linux - 🎨 **美观友好的界面**,以用户为中心的设计,精心设计的明暗主题 - 🔗 **丰富的DeepLink支持**:通过链接发起对话,与其他应用无缝集成。还支持一键安装MCP服务,简单快速 - 🚑 **安全优先设计**:聊天数据和配置数据预留加密接口和代码混淆能力 - 🛡️ **隐私保护**:支持屏幕投影隐藏、网络代理等隐私保护方法,降低信息泄露风险 - 💰 **商业友好**: - 拥抱开源,基于 Apache License 2.0 协议,企业使用安心无忧 - 企业集成只需要修改极少配置代码即可使用预留的加密混淆的安全能力 - 代码结构清晰,无论是模型供应商还是 MCP 服务都高度解耦,可以随意进行增删定制,成本极低 - 架构合理,数据交互和UI行为分离,充分利用 Electron 的能力,拒绝简单的网页套壳,性能优异 ## 🤖 支持的模型提供商
Ollama |
Deepseek |
PPIO |
DashScope |
Doubao |
MiniMax |
Fireworks |
302.AI |
OpenAI |
Gemini |
GitHub Models |
Moonshot |
OpenRouter |
Azure OpenAI |
Qiniu |
Grok |
智谱 |
SiliconFlow |
![]() AIHubMix |
混元 |
LM Studio |
Groq |