OneAPI快速上手:Postman调用示例、curl命令测试、Python SDK接入指南
OneAPI快速上手Postman调用示例、curl命令测试、Python SDK接入指南安全提示使用 root 用户初次登录系统后务必修改默认密码1234561. 什么是OneAPIOneAPI 是一个强大的 LLM API 管理与分发系统它通过标准的 OpenAI API 格式让你能够访问所有主流大模型。简单来说它就像是一个万能转换器——无论你想用哪个厂商的AI模型只需要学会一种调用方式OpenAI格式就能搞定所有。这个系统支持包括 OpenAI、Azure、Anthropic Claude、Google Gemini、DeepSeek、字节豆包、ChatGLM、文心一言、讯飞星火、通义千问等在内的30多种主流模型。你不需要为每个模型学习不同的API调用方式OneAPI帮你统一处理开箱即用。2. 核心功能亮点2.1 多模型统一接入OneAPI 最强大的地方在于它支持丰富的模型生态国际模型OpenAI ChatGPT系列、Anthropic Claude、Google Gemini、Mistral等国内模型文心一言、通义千问、讯飞星火、ChatGLM、360智脑等新兴模型Moonshot、百川、MINIMAX、DeepSeek、零一万物等自部署模型支持 Ollama 等本地模型部署2.2 企业级功能负载均衡自动在多个渠道间分配请求Stream模式支持流式传输实现打字机效果多机部署支持分布式部署提升性能令牌管理精细控制访问权限和额度用户分组为不同用户设置不同倍率和权限2.3 管理监控额度明细清晰查看使用情况兑换码系统支持批量生成和管理报警通知配合 Message Pusher 推送异常信息自定义界面支持自定义logo、页脚和页面内容3. 快速安装部署OneAPI 提供多种部署方式最简单的就是使用 Docker# 拉取最新镜像 docker pull songquanpeng/one-api:latest # 运行容器 docker run --name one-api -d \ -p 3000:3000 \ -e SQL_DSNmysql://root:passwordtcp(localhost:3306)/oneapi \ -v /home/ubuntu/data/one-api:/data \ songquanpeng/one-api:latest部署完成后访问http://你的服务器IP:3000即可进入管理界面。4. Postman调用示例4.1 准备工作首先需要在OneAPI管理界面创建渠道和令牌登录管理后台默认账号root/123456在渠道页面添加你想要使用的模型渠道在令牌页面创建访问令牌4.2 基础聊天调用在Postman中配置以下参数请求配置Method:POSTURL:http://你的OneAPI地址/v1/chat/completionsHeaders:Authorization: Bearer 你的令牌Content-Type: application/json请求体JSON{ model: gpt-3.5-turbo, messages: [ { role: user, content: 你好请介绍一下你自己 } ], temperature: 0.7, max_tokens: 500 }4.3 流式传输调用如果你想要实现打字机效果可以使用stream模式{ model: gpt-4, messages: [ { role: user, content: 写一个关于人工智能的短故事 } ], stream: true, temperature: 0.8 }在Postman中你需要使用Send and Download功能来接收流式响应。5. curl命令测试5.1 基础聊天测试curl http://你的OneAPI地址/v1/chat/completions \ -H Content-Type: application/json \ -H Authorization: Bearer 你的令牌 \ -d { model: gpt-3.5-turbo, messages: [ { role: user, content: 你好请问你能做什么 } ], temperature: 0.7 }5.2 流式传输测试curl http://你的OneAPI地址/v1/chat/completions \ -H Content-Type: application/json \ -H Authorization: Bearer 你的令牌 \ -d { model: claude-2, messages: [ { role: user, content: 解释一下机器学习的基本概念 } ], stream: true }5.3 使用不同模型只需要修改请求中的model参数就可以切换不同模型# 使用文心一言 model: ernie-bot # 使用通义千问 model: qwen-plus # 使用讯飞星火 model: spark-v36. Python SDK接入指南6.1 安装依赖OneAPI完全兼容OpenAI的Python SDK你可以直接使用openai库pip install openai6.2 基础配置和使用from openai import OpenAI # 配置客户端 client OpenAI( api_key你的OneAPI令牌, base_urlhttp://你的OneAPI地址/v1 # 注意要包含/v1 ) # 发送聊天请求 response client.chat.completions.create( modelgpt-3.5-turbo, # 可以替换为任何支持的模型 messages[ {role: user, content: 你好请用中文回答} ], temperature0.7 ) print(response.choices[0].message.content)6.3 流式传输实现def stream_chat(): stream client.chat.completions.create( modelclaude-2, messages[ {role: user, content: 写一首关于春天的诗} ], streamTrue ) for chunk in stream: if chunk.choices[0].delta.content is not None: print(chunk.choices[0].delta.content, end, flushTrue) stream_chat()6.4 批量处理多个请求import asyncio from openai import AsyncOpenAI async def batch_requests(): aclient AsyncOpenAI( api_key你的令牌, base_urlhttp://你的OneAPI地址/v1 ) tasks [] for question in [什么是AI, 机器学习是什么, 深度学习有什么应用]: task aclient.chat.completions.create( modelgpt-3.5-turbo, messages[{role: user, content: question}], temperature0.7 ) tasks.append(task) responses await asyncio.gather(*tasks) for i, response in enumerate(responses): print(f问题 {i1}: {response.choices[0].message.content}) # 运行批量请求 asyncio.run(batch_requests())7. 高级功能使用示例7.1 负载均衡配置OneAPI支持自动在多个渠道间进行负载均衡你只需要在管理界面添加多个相同模型的渠道系统会自动分配请求。7.2 自定义模型映射如果你需要将请求重定向到特定模型可以使用模型映射功能# 即使请求gpt-4实际会使用qwen-plus处理 response client.chat.completions.create( modelgpt-4, # 映射到通义千问 messages[{role: user, content: 问题内容}] )7.3 使用绘图接口OneAPI也支持DALL-E等绘图模型的调用# 生成图片 response client.images.generate( modeldall-e-3, prompt一只可爱的卡通猫在花园里玩耍, size1024x1024, qualitystandard, n1 ) image_url response.data[0].url print(f生成的图片: {image_url})8. 常见问题解决8.1 连接问题如果遇到连接错误首先检查OneAPI服务是否正常运行防火墙是否开放了3000端口网络连接是否正常8.2 认证失败确认令牌是否正确检查令牌是否已过期或被禁用验证请求头中的Authorization格式是否正确8.3 模型不可用在管理界面确认对应渠道状态正常检查渠道的额度是否充足确认请求的模型名称与渠道配置一致8.4 流式传输中断检查网络稳定性确认客户端正确处理流式响应验证超时设置是否合理9. 最佳实践建议9.1 性能优化使用连接池减少建立连接的开销合理设置超时时间避免长时间等待启用流式传输提升用户体验9.2 错误处理try: response client.chat.completions.create( modelgpt-3.5-turbo, messages[{role: user, content: 你好}], temperature0.7 ) except Exception as e: print(f请求失败: {e}) # 这里可以添加重试逻辑9.3 监控和日志定期检查OneAPI管理界面的使用统计设置报警通知及时了解系统状态记录重要操作的日志便于排查问题10. 总结OneAPI 作为一个统一的AI模型网关极大地简化了多模型接入的复杂性。通过本文介绍的三种接入方式你可以快速开始使用Postman测试适合快速验证和调试API调用curl命令方便在命令行环境中进行测试和集成Python SDK最适合实际项目开发完全兼容OpenAI标准无论你是个人开发者还是企业用户OneAPI都能提供稳定、高效的模型接入服务。其丰富的功能如负载均衡、多机部署、精细权限控制等让它成为构建AI应用的首选网关方案。现在就开始使用OneAPI享受一次接入多模型通用的便捷体验吧获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。