OpenAI 推出 Responses API WebSocket 支持:提升复杂任务的执行效率

近日,OpenAI 为其 Responses API 增加了对 WebSocket 模式的支持,这一技术更新将让开发者在处理复杂的多次任务调用时体验到显著的性能提升。不仅减少了服务器缓存的开销,还让实时应用和多工具流畅运行成为可能。

什么是 Responses API 的 WebSocket 模式?

WebSocket 模式旨在通过持久连接,优化长时间运行和频繁调用工具的工作流程。在这种模式下,开发者无需重复发送完整的上下文信息,仅需发送新的输入项和 previous_response_id,大幅度降低延迟。

该模式的主要特点包括:

  • 支持频繁的模型工具交互轮次,比如复杂代码编排或多工具调用。
  • 保持连接开放,每回合仅传递增量输入,减少延续开销。
  • 完全兼容 Zero Data Retention (ZDR) 模式,支持 store=false

为什么选择 WebSocket 模式?

WebSocket 模式特别适用于需要多次调用的复杂任务,如 AI 代码生成、任务编排等。

通过使用持久连接:

  • 无需重复起始连接,可以减少每轮调用的延迟。
  • 在 20 次以上调用的任务中,整体执行速度有望提升最多达 40%。
  • Cursor(提升 30%)和 Cline(提升高达 50%)的测试数据进一步验证了效率提升。

如何使用 WebSocket 模式?

连接 WebSocket 服务端,并开始请求可以按照以下示例代码实现:

from websocket import create_connection
import json
import os

ws = create_connection(
    "wss://api.openai.com/v1/responses",
    header=[
        f"Authorization: Bearer {os.environ['OPENAI_API_KEY']}",
    ],
)

ws.send(
    json.dumps(
        {
            "type": "response.create",
            "model": "gpt-5.2",
            "store": False,
            "input": [
                {
                    "type": "message",
                    "role": "user",
                    "content": [{"type": "input_text", "text": "Find fizz_buzz()"}],
                }
            ],
            "tools": [],
        }
    )
)

通过以上代码,开发者可以维持 60 分钟的连接,在后续调用中继续通过 previous_response_id 发送新的输入。

潜在应用场景📌

WebSocket 模式带来的低延迟优势,为多个实际场景提供支持:

  1. 实时应用:如聊天机器人,开放持久连接可确保快速响应,提高用户体验。
  2. 复杂任务编排:需要多工具交互场景中,简化流程,提升系统性能。
  3. 开发测试:如 AI SDK 的早期采用者(例如 Vercel)报告,结合 WebSocket 使用后响应速度更快。

总结

OpenAI 为 Responses API 引入的 WebSocket 支持,不仅优化了开发效率,还为复杂工具交互任务和实时 AI 应用提供了可靠的技术解决方案。未来,随着技术的进一步成熟,开发者将能够在更多场景中应用这项创新功能。

文章评论

登录后才能发布评论哦
立即登录/注册
消息提醒
Hello, world! This is a toast message.