微信扫码
添加专属顾问
 
                        我要投稿
一键优化AI提示词,提升大模型输出质量,纯前端运行保障数据安全! 核心内容: 1. 智能优化提示词功能,支持多轮迭代与效果对比 2. 多模型支持与高级参数配置,满足不同需求 3. 纯前端架构设计,确保数据隐私与本地安全
 
                                Prompt Optimizer 是一款专为 AI 提示词优化而设计的前端工具,支持多模型、多平台、隐私保护,助你高效构造高质量 Prompt,从而提升 LLM 输出效果。
支持 网页版 与 Chrome 插件,开箱即用,免费开源!
•🎯 智能优化:一键优化提示词,支持多轮迭代,提升 AI 输出质量•🔍 效果对比:原始 vs 优化后提示词,结果直观可视•🤖 多模型支持:支持 OpenAI、Gemini、DeepSeek、智谱、SiliconFlow 等•⚙️ 高级参数配置:每个模型可单独设置 temperature、max_tokens 等•🔐 安全架构:纯前端运行,无后端中转,数据不出本地•💾 隐私保护:API 密钥与历史记录本地加密存储,支持导入导出•📱 多端使用:提供 Web 应用和 Chrome 插件•🌐 跨域兼容:支持 Vercel 边缘代理,解决 CORS 问题•🔑 访问控制:可设置访问密码,私有部署更安全
无需安装,直接访问:
👉 https://prompt.always200.com
✅ 所有数据仅保存在浏览器本地,纯前端实现,使用安全放心。
点击部署[2]
或手动操作:
1.Fork 本项目到 GitHub2.在 Vercel 中导入该仓库3.配置环境变量:•ACCESS_PASSWORD:访问密码•VITE_OPENAI_API_KEY 等:模型 API 密钥
详见:Vercel部署指南[3]
docker run -d -p 80:80--restart unless-stopped \--name prompt-optimizer linshen/prompt-optimizer
配置密钥与访问认证
docker run -d -p 80:80 \-e VITE_OPENAI_API_KEY=your_key \-e ACCESS_USERNAME=admin \-e ACCESS_PASSWORD=your_password \--restart unless-stopped \--name prompt-optimizer \ linshen/prompt-optimizer
git clone https://github.com/linshenkx/prompt-optimizer.gitcd prompt-optimizer# 可选:创建 .env 文件cat >.env << EOFVITE_OPENAI_API_KEY=your_keyACCESS_USERNAME=adminACCESS_PASSWORD=your_passwordEOFdocker compose up -d
查看日志:
docker compose logs -f
Chrome商店地址[4]
•可通过 Chrome Web Store 安装(注意版本更新可能延迟)•安装后点击浏览器图标,即可使用提示词优化器
1.点击右上角“⚙️设置”2.进入“模型管理”选项卡3.配置对应模型 API 密钥和高级参数4.支持设置 llmParams 自定义参数
有关 llmParams 的更详细说明和配置指南,请参阅 LLM参数配置指南[5]。
示例:
{"temperature":0.7,"max_tokens":4096,"timeout":60000}•OpenAI(gpt-3.5 / gpt-4 / gpt-4o)•Gemini(1.5-pro / 2.0-flash)•DeepSeek(chat / coder)•智谱(GLM-4 / GLM-4-Flash)•SiliconFlow、自定义兼容 API
👉 查看:LLM 参数配置指南
-e VITE_OPENAI_API_KEY=xxx-e VITE_GEMINI_API_KEY=xxx-e VITE_ZHIPU_API_KEY=xxx-e VITE_CUSTOM_API_BASE_URL=https://api.xxx.com/v1-e VITE_CUSTOM_API_MODEL=my-model
详细文档可查看 开发文档[6]
git clone https://github.com/linshenkx/prompt-optimizer.gitcd prompt-optimizerpnpm install# 启动开发服务pnpm dev # 构建 core/ui 并启动 Webpnpm dev:web # 仅运行前端pnpm dev:fresh # 重置后启动
A: 通常是浏览器 CORS 拦截所致,建议使用 Vercel 部署或代理方式。
export OLLAMA_ORIGINS=*export OLLAMA_HOST=0.0.0.0:11434
推荐:
1.使用 Vercel 代理(默认支持)2.自建代理(如 OneAPI),在设置中配置自定义 API 地址
# Fork 项目 & 创建分支git checkout -b feature/awesome-feature# 提交更改git commit -m "feat: 添加功能"# 推送 & 提交 PRgit push origin feature/awesome-feature
建议使用 cursor 工具进行本地 Code Review 后再提交 PR。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-10-31
Google DeepMind揭秘:开源AI模型如何泄露训练秘方
2025-10-31
有人问我会不会用 AI,我直接拿出这个 Ollama + FastGPT 项目给他看
2025-10-30
开源可信MCP,AICC机密计算新升级!
2025-10-30
OpenAI 开源了推理安全模型-gpt-oss-safeguard-120b 和 gpt-oss-safeguard-20b
2025-10-29
刚刚,OpenAI 再次开源!安全分类模型 gpt-oss-safeguard 准确率超越 GPT-5
2025-10-29
AI本地知识库+智能体系列:手把手教你本地部署 n8n,一键实现自动采集+智能处理!
2025-10-29
n8n如何调用最近爆火的deepseek OCR?
2025-10-29
OpenAI终于快要上市了,也直面了这23个灵魂拷问。
 
            2025-08-20
2025-09-07
2025-08-05
2025-08-20
2025-08-26
2025-08-22
2025-09-06
2025-08-06
2025-10-20
2025-08-22
2025-10-29
2025-10-28
2025-10-13
2025-09-29
2025-09-17
2025-09-09
2025-09-08
2025-09-07