[链接登录后可见]
项目简介
Prompt Optimizer 是一个强大的 AI 提示词工程工具,通过结构化优化、对比测试和多端支持,帮助开发者与创意工作者提升 AI 输出质量。
—
核心特性
智能优化:支持系统/用户提示词优化,支持多轮迭代改进。
对比测试:原始与优化结果实时对比,效果一目了然。
多模型集成:适配 OpenAI, Gemini, DeepSeek, 智谱 AI, SiliconFlow 等。
MCP 协议:原生支持 Model Context Protocol,可集成至 Claude Desktop。
隐私安全:纯客户端处理,数据直连 API 服务商,不经过中间服务器。
全端支持:Web 应用、桌面端 (Win/Mac/Linux)、Chrome 插件、Docker。
—
高级功能
图像实验室
支持 文生图 (T2I) 与 图生图 (I2I),集成 Gemini、Seedream 等模型,支持尺寸与风格自定义。
高级测试模式
—
快速开始
1. 在线使用 (推荐)
直接访问:[链接登录后可见]
项目为纯前端架构,数据仅存储在本地浏览器,安全可靠。
2. Docker 部署
Bash
# 一键运行
docker run -d -p 8081:80 \
-e VITE_OPENAI_API_KEY=your_key \
-e ACCESS_PASSWORD=your_password \
--restart unless-stopped \
--name prompt-optimizer linshen/prompt-optimizer
3. Vercel 部署
4. 桌面应用
从 [链接登录后可见] 下载安装包。
优势:无跨域 (CORS) 限制,可直接连接本地 Ollama 或商业 API。
—
MCP Server 集成
Prompt Optimizer 支持通过 MCP 协议与 Claude Desktop 等应用集成。
Claude Desktop 配置示例 (services.json):
JSON
{
"services": [
{
"name": "Prompt Optimizer",
"url": "http://your-ip:8081/mcp"
}
]
}
可用工具: optimize-user-prompt, optimize-system-prompt, iterate-prompt。
—
API 密钥配置
⚙️ API 配置方式说明
| 配置方式 | 操作路径 / 示例 | 说明 |
| 界面配置 (推荐) | 设置 -> 模型管理 -> 输入 API Key | 纯前端存储,即填即用,无需重启服务。 |
| 环境变量 | 设置 VITE_OPENAI_API_KEY 等变量 | 适用于 Docker 或 Vercel 部署,实现自动化配置。 |
| 高级参数 | 通过 llmParams 字段配置 | 支持精细化调节 temperature、top_p、max_tokens 等参数。 |
—
本地开发
Bash
# 1. 克隆与安装
git clone https://github.com/linshenkx/prompt-optimizer.git
cd prompt-optimizer
pnpm install
# 2. 启动开发环境
pnpm dev
—
相关文档