# product-generator-learning **Repository Path**: xudolej/product-generator-learning ## Basic Information - **Project Name**: product-generator-learning - **Description**: product-generator-learning - **Primary Language**: Unknown - **License**: Not specified - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2025-06-02 - **Last Updated**: 2025-06-12 ## Categories & Tags **Categories**: Uncategorized **Tags**: AI, Self ## README RAG : - 依靠Embedding和VectorStore来实现RAG,前者将文本数据库转换成向量,后者存储特征向量和计算向量相似度,为文本数据库的文本数据做匹配 - 针对不同的数据,还需要确定 特征表示,相似度计算和评估方法,这就是特定领域实现定制化的RAG的关键 - 所以也涉及flask+kafka的分布式计算,我去我不会要回去做模型训练吧 - 现有的模型有哪些?输出格式是怎样的? - 这里调用的输出格式是一维向量,向量维度取决于Embedding模型的参数,比如GPT-3的Embedding模型输出维度为1536,而GPT-4的Embedding模型输出维度为8192。 - 所以外部知识库也需要RAG吗? 那些ds搜索是怎么做的?? - RAG实现原理: 存储:文本数据-》分词-》词嵌入+特征表示-》特征向量+分词后的文本 -》存储于向量库 搜索:文本数据-》分词-》词嵌入+特征表示-》向量库内检索(这步也是大模型),向量相似度计算-》获取相似分词后的文本 Agent : - 用 Agents和ChatOpenAI实现,前者负责调用llm和MCP,处理llm的输出,后者负责 输入大模型,和缓存上下文 - 虽然类只有一个agent,但每次调用模型都可以视作一次向一个agent提问,因为openAI提示词是按role+content来定的 - 这个agent架构应该属于ReAct架构,任务只输入一次,之后是llm输出一次,就合并上下文再喂回去,直到不需要再调用tools作为生成成功,走一步看一步 - 如果是PE类型,尤其是执行者,执行过程中但会出来调用tools再合并入上下文喂回去提问,真的属于PE格式吗? - 应该是属于的,Excutor也可以分很多个,执行完输出的结果全部汇总到replan一个agent,再由replanner做反喂操作planner Tools : - MCP的server连接,MCPClient实现 Memory: - 没有长记忆模块,最多只有一次TASK的上下文缓存 项目依赖: - 环境变量库:调用环境变量的方法 - openai的sdk:llm - mcp的sdk 与coze实现的不同: - 不知道coze的工作流是怎么做的,但是自实现的agent是没有主动选择怎么执行,怎么调用tools的,可能就是coze的workflow概念中的一个LLM节点? - 那多Agent的关键就是修改TASK - workflow的关键就是任务串联+规格化上下文 模块开发和测试: - 怎么分模块测试 - 怎么替换RAG - 怎么设计我自己的Agent - 怎么结合redis,kafka+分布式高可用服务来构建Agent