Tio Boot DocsTio Boot Docs
Home
  • java-db
  • api-table
  • Enjoy
  • Tio Boot Admin
  • ai_agent
  • translator
  • knowlege_base
  • ai-search
  • 案例
Abount
  • Github
  • Gitee
Home
  • java-db
  • api-table
  • Enjoy
  • Tio Boot Admin
  • ai_agent
  • translator
  • knowlege_base
  • ai-search
  • 案例
Abount
  • Github
  • Gitee
  • 01_tio-boot 简介

    • tio-boot:新一代高性能 Java Web 开发框架
    • tio-boot 入门示例
    • Tio-Boot 配置 : 现代化的配置方案
    • tio-boot 整合 Logback
    • tio-boot 整合 hotswap-classloader 实现热加载
    • 自行编译 tio-boot
    • 最新版本
    • 开发规范
  • 02_部署

    • 使用 Maven Profile 实现分环境打包 tio-boot 项目
    • Maven 项目配置详解:依赖与 Profiles 配置
    • tio-boot 打包成 FastJar
    • 使用 GraalVM 构建 tio-boot Native 程序
    • 使用 Docker 部署 tio-boot
    • 部署到 Fly.io
    • 部署到 AWS Lambda
    • 到阿里云云函数
    • 使用 Deploy 工具部署
    • 胖包与瘦包的打包与部署
    • 使用 Jenkins 部署 Tio-Boot 项目
    • 使用 Nginx 反向代理 Tio-Boot
    • 使用 Supervisor 管理 Java 应用
  • 03_配置

    • 配置参数
    • 服务器监听器
    • 内置缓存系统 AbsCache
    • 使用 Redis 作为内部 Cache
    • 静态文件处理器
    • 基于域名的静态资源隔离
    • DecodeExceptionHandler
  • 04_原理

    • 生命周期
    • 请求处理流程
    • 重要的类
  • 05_json

    • Json
    • 接受 JSON 和响应 JSON
    • 响应实体类
  • 06_web

    • 概述
    • 文件上传
    • 接收请求参数
    • 接收日期参数
    • 接收数组参数
    • 返回字符串
    • 返回文本数据
    • 返回网页
    • 请求和响应字节
    • 文件下载
    • 返回视频文件并支持断点续传
    • http Session
    • Cookie
    • HttpRequest
    • HttpResponse
    • Resps
    • RespBodyVo
    • /zh/06_web/19.html
    • 全局异常处理器
    • 异步
    • 动态 返回 CSS 实现
    • 返回图片
    • Transfer-Encoding: chunked 实时音频播放
    • Server-Sent Events (SSE)
    • 接口访问统计
    • 接口请求和响应数据记录
    • 自定义 Handler 转发请求
    • 使用 HttpForwardHandler 转发所有请求
    • 跨域
    • 添加 Controller
    • 常用工具类
    • HTTP Basic 认证
    • WebJars
    • JProtobuf
  • 07_validate

    • 数据紧校验规范
    • 参数校验
  • 08_websocket

    • 使用 tio-boot 搭建 WebSocket 服务
    • WebSocket 聊天室项目示例
  • 09_java-db

    • java‑db
    • 操作数据库入门示例
    • SQL 模板
    • 数据源配置与使用
    • ActiveRecord
    • Model
    • 生成器与 Model
    • Db 工具类
    • 批量操作
    • 数据库事务处理
    • Cache 缓存
    • Dialect 多数据库支持
    • 表关联操作
    • 复合主键
    • Oracle 支持
    • Enjoy SQL 模板
    • Java-DB 整合 Enjoy 模板最佳实践
    • 多数据源支持
    • 独立使用 ActiveRecord
    • 调用存储过程
    • java-db 整合 Guava 的 Striped 锁优化
    • 生成 SQL
    • 通过实体类操作数据库
    • java-db 读写分离
    • Spring Boot 整合 Java-DB
    • like 查询
    • 常用操作示例
    • Druid 监控集成指南
    • SQL 统计
  • 10_api-table

    • ApiTable 概述
    • 使用 ApiTable 连接 SQLite
    • 使用 ApiTable 连接 Mysql
    • 使用 ApiTable 连接 Postgres
    • 使用 ApiTable 连接 TDEngine
    • 使用 api-table 连接 oracle
    • 使用 api-table 连接 mysql and tdengine 多数据源
    • EasyExcel 导出
    • EasyExcel 导入
    • TQL(Table SQL)前端输入规范
    • ApiTable 实现增删改查
    • 数组类型
    • 单独使用 ApiTable
  • 11_aop

    • JFinal-aop
    • Aop 工具类
    • 配置
    • 配置
    • 独立使用 JFinal Aop
    • @AImport
    • 原理解析
  • 12_cache

    • Caffine
    • Jedis-redis
    • hutool RedisDS
    • Redisson
    • Caffeine and redis
    • CacheUtils 工具类
    • 使用 CacheUtils 整合 caffeine 和 redis 实现的两级缓存
    • 使用 java-db 整合 ehcache
    • 使用 java-db 整合 redis
    • Java DB Redis 相关 Api
    • redis 使用示例
  • 13_认证和权限

    • hutool-JWT
    • FixedTokenInterceptor
    • 使用内置 TokenManager 实现登录
    • 用户系统
    • 重置密码
    • 匿名登录
    • Google 登录
    • 权限校验注解
    • Sa-Token
    • sa-token 登录注册
    • StpUtil.isLogin() 源码解析
    • 短信登录
    • 移动端微信登录实现指南
    • 移动端重置密码
  • 14_i18n

    • i18n
  • 15_enjoy

    • tio-boot 整合 Enjoy 模版引擎文档
    • 引擎配置
    • 表达式
    • 指令
    • 注释
    • 原样输出
    • Shared Method 扩展
    • Shared Object 扩展
    • Extension Method 扩展
    • Spring boot 整合
    • 独立使用 Enjoy
    • tio-boot enjoy 自定义指令 localeDate
    • PromptEngine
    • Enjoy 入门示例-擎渲染大模型请求体
    • Enjoy 使用示例
  • 16_定时任务

    • Quartz 定时任务集成指南
    • 分布式定时任务 xxl-jb
    • cron4j 使用指南
  • 17_tests

    • TioBootTest 类
  • 18_tio

    • TioBootServer
    • tio-core
    • 内置 TCP 处理器
    • 独立启动 UDPServer
    • 使用内置 UDPServer
    • t-io 消息处理流程
    • tio-运行原理详解
    • TioConfig
    • ChannelContext
    • Tio 工具类
    • 业务数据绑定
    • 业务数据解绑
    • 发送数据
    • 关闭连接
    • Packet
    • 监控: 心跳
    • 监控: 客户端的流量数据
    • 监控: 单条 TCP 连接的流量数据
    • 监控: 端口的流量数据
    • 单条通道统计: ChannelStat
    • 所有通道统计: GroupStat
    • 资源共享
    • 成员排序
    • SSL
    • DecodeRunnable
    • 使用 AsynchronousSocketChannel 响应数据
    • 拉黑 IP
    • 深入解析 Tio 源码:构建高性能 Java 网络应用
  • 19_aio

    • ByteBuffer
    • AIO HTTP 服务器
    • 自定义和线程池和池化 ByteBuffer
    • AioHttpServer 应用示例 IP 属地查询
    • 手写 AIO Http 服务器
  • 20_netty

    • Netty TCP Server
    • Netty Web Socket Server
    • 使用 protoc 生成 Java 包文件
    • Netty WebSocket Server 二进制数据传输
    • Netty 组件详解
  • 21_netty-boot

    • Netty-Boot
    • 原理解析
    • 整合 Hot Reload
    • 整合 数据库
    • 整合 Redis
    • 整合 Elasticsearch
    • 整合 Dubbo
    • Listener
    • 文件上传
    • 拦截器
    • Spring Boot 整合 Netty-Boot
    • SSL 配置指南
    • ChannelInitializer
    • Reserve
  • 22_MQ

    • Mica-mqtt
    • EMQX
    • Disruptor
  • 23_tio-utils

    • tio-utils
    • HttpUtils
    • Notification
    • 邮箱
    • JSON
    • 读取文件
    • Base64
    • 上传和下载
    • Http
    • Telegram
    • RsaUtils
    • EnvUtils 使用文档
    • 系统监控
    • 毫秒并发 ID (MCID) 生成方案
  • 24_tio-http-server

    • 使用 Tio-Http-Server 搭建简单的 HTTP 服务
    • tio-boot 添加 HttpRequestHandler
    • 在 Android 上使用 tio-boot 运行 HTTP 服务
    • tio-http-server-native
    • handler 常用操作
  • 25_tio-websocket

    • WebSocket 服务器
    • WebSocket Client
  • 26_tio-im

    • 通讯协议文档
    • ChatPacket.proto 文档
    • java protobuf
    • 数据表设计
    • 创建工程
    • 登录
    • 历史消息
    • 发消息
  • 27_mybatis

    • Tio-Boot 整合 MyBatis
    • 使用配置类方式整合 MyBatis
    • 整合数据源
    • 使用 mybatis-plus 整合 tdengine
    • 整合 mybatis-plus
  • 28_mongodb

    • tio-boot 使用 mongo-java-driver 操作 mongodb
  • 29_elastic-search

    • Elasticsearch
    • JavaDB 整合 ElasticSearch
    • Elastic 工具类使用指南
    • Elastic-search 注意事项
    • ES 课程示例文档
  • 30_magic-script

    • tio-boot 整合 magic-script
  • 31_groovy

    • tio-boot 整合 Groovy
  • 32_firebase

    • 整合 google firebase
    • Firebase Storage
    • Firebase Authentication
    • 使用 Firebase Admin SDK 进行匿名用户管理与自定义状态标记
    • 导出用户
    • 注册回调
    • 登录注册
  • 33_文件存储

    • 文件上传数据表
    • 本地存储
    • 使用 AWS S3 存储文件并整合到 Tio-Boot 项目中
    • 存储文件到 腾讯 COS
  • 34_spider

    • jsoup
    • 爬取 z-lib.io 数据
    • 整合 WebMagic
    • WebMagic 示例:爬取学校课程数据
    • Playwright
    • Flexmark (Markdown 处理器)
    • tio-boot 整合 Playwright
    • 缓存网页数据
  • 36_integration_thirty_party

    • tio-boot 整合 okhttp
    • 整合 GrpahQL
    • 集成 Mailjet
    • 整合 ip2region
    • 整合 GeoLite 离线库
    • 整合 Lark 机器人指南
    • 集成 Lark Mail 实现邮件发送
    • Thymeleaf
    • Swagger
    • Clerk 验证
  • 37_dubbo

    • 概述
    • dubbo 2.6.0
    • dubbo 2.6.0 调用过程
    • dubbo 3.2.0
  • 38_spring

    • Spring Boot Web 整合 Tio Boot
    • spring-boot-starter-webflux 整合 tio-boot
    • Tio Boot 整合 Spring Boot Starter
    • Tio Boot 整合 Spring Boot Starter Data Redis 指南
  • 39_spring-cloud

    • tio-boot spring-cloud
  • 40_mysql

    • 使用 Docker 运行 MySQL
    • /zh/42_mysql/02.html
  • 41_postgresql

    • PostgreSQL 安装
    • PostgreSQL 主键自增
    • PostgreSQL 日期类型
    • Postgresql 金融类型
    • PostgreSQL 数组类型
    • PostgreSQL 全文检索
    • PostgreSQL 查询优化
    • 获取字段类型
    • PostgreSQL 向量
    • PostgreSQL 优化向量查询
    • PostgreSQL 其他
  • 43_oceanbase

    • 快速体验 OceanBase 社区版
    • 快速上手 OceanBase 数据库单机部署与管理
    • 诊断集群性能
    • 优化 SQL 性能指南
    • /zh/43_oceanbase/05.html
  • 50_media

    • JAVE 提取视频中的声音
    • Jave 提取视频中的图片
    • /zh/50_media/03.html
  • 51_asr

    • Whisper-JNI
  • 54_native-media

    • java-native-media
    • JNI 入门示例
    • mp3 拆分
    • mp4 转 mp3
    • 使用 libmp3lame 实现高质量 MP3 编码
    • Linux 编译
    • macOS 编译
    • 从 JAR 包中加载本地库文件
    • 支持的音频和视频格式
    • 任意格式转为 mp3
    • 通用格式转换
    • 通用格式拆分
    • 视频合并
    • VideoToHLS
    • split_video_to_hls 支持其他语言
    • 持久化 HLS 会话
  • 55_telegram4j

    • 数据库设计
    • /zh/55_telegram4j/02.html
    • 基于 MTProto 协议开发 Telegram 翻译机器人
    • 过滤旧消息
    • 保存机器人消息
    • 定时推送
    • 增加命令菜单
    • 使用 telegram-Client
    • 使用自定义 StoreLayout
    • 延迟测试
    • Reactor 错误处理
    • Telegram4J 常见错误处理指南
  • 56_telegram-bots

    • TelegramBots 入门指南
    • 使用工具库 telegram-bot-base 开发翻译机器人
  • 60_LLM

    • 简介
    • AI 问答
    • /zh/60_LLM/03.html
    • /zh/60_LLM/04.html
    • 增强检索(RAG)
    • 结构化数据检索
    • 搜索+AI
    • 集成第三方 API
    • 后置处理
    • 推荐问题生成
    • 连接代码执行器
    • 避免 GPT 混乱
    • /zh/60_LLM/13.html
  • 61_ai_agent

    • 数据库设计
    • 示例问题管理
    • 会话管理
    • 历史记录
    • 对接 Perplexity API
    • 意图识别与生成提示词
    • 智能问答模块设计与实现
    • 文件上传与解析文档
    • 翻译
    • 名人搜索功能实现
    • Ai studio gemini youbue 问答使用说明
    • 自建 YouTube 字幕问答系统
    • 自建 获取 youtube 字幕服务
    • 通用搜索
    • /zh/61_ai_agent/15.html
    • 16
    • 17
    • 18
    • 在 tio-boot 应用中整合 ai-agent
    • 16
  • 62_translator

    • 简介
  • 63_knowlege_base

    • 数据库设计
    • 用户登录实现
    • 模型管理
    • 知识库管理
    • 文档拆分
    • 片段向量
    • 命中测试
    • 文档管理
    • 片段管理
    • 问题管理
    • 应用管理
    • 向量检索
    • 推理问答
    • 问答模块
    • 统计分析
    • 用户管理
    • api 管理
    • 存储文件到 S3
    • 文档解析优化
    • 片段汇总
    • 段落分块与检索
    • 多文档解析
    • 对话日志
    • 检索性能优化
    • Milvus
    • 文档解析方案和费用对比
    • 离线运行向量模型
  • 64_ai-search

    • ai-search 项目简介
    • ai-search 数据库文档
    • ai-search SearxNG 搜索引擎
    • ai-search Jina Reader API
    • ai-search Jina Search API
    • ai-search 搜索、重排与读取内容
    • ai-search PDF 文件处理
    • ai-search 推理问答
    • Google Custom Search JSON API
    • ai-search 意图识别
    • ai-search 问题重写
    • ai-search 系统 API 接口 WebSocket 版本
    • ai-search 搜索代码实现 WebSocket 版本
    • ai-search 生成建议问
    • ai-search 生成问题标题
    • ai-search 历史记录
    • Discover API
    • 翻译
    • Tavily Search API 文档
    • 对接 Tavily Search
    • 火山引擎 DeepSeek
    • 对接 火山引擎 DeepSeek
    • ai-search 搜索代码实现 SSE 版本
    • jar 包部署
    • Docker 部署
    • 爬取一个静态网站的所有数据
    • 网页数据预处理
    • 网页数据检索与问答流程整合
  • 65_java-linux

    • Java 执行 python 代码
    • 通过大模型执行 Python 代码
    • MCP 协议
    • Cline 提示词
    • Cline 提示词-中文版本
  • 66_manim

    • Teach me anything - 基于大语言的知识点讲解视频生成系统
    • Manim 开发环境搭建
    • 生成场景提示词
    • 生成代码
    • 完整脚本示例
    • 语音合成系统
    • Fish.audio TTS 接口说明文档与 Java 客户端封装
    • 整合 fishaudio 到 java-uni-ai-server 项目
    • 执行 Python (Manim) 代码
    • 使用 SSE 流式传输生成进度的实现文档
    • 整合全流程完整文档
    • HLS 动态推流技术文档
    • manim 分场景生成代码
    • 分场景运行代码及流式播放支持
    • 分场景业务端完整实现流程
    • Maiim布局管理器
    • 仅仅生成场景代码
    • 使用 modal 运行 manim 代码
    • Python 使用 Modal GPU 加速渲染
    • Modal 平台 GPU 环境下运行 Manim
    • Modal Manim OpenGL 安装与使用
    • 优化 GPU 加速
    • 生成视频封面流程
    • Java 调用 manim 命令 执行代码 生成封面
    • Manim 图像生成服务客户端文档
    • manim render help
    • 显示 中文公式
    • manimgl
    • EGL
    • /zh/66_manim/30.html
    • /zh/66_manim/31.html
    • /zh/66_manim/32.html
    • /zh/66_manim/33.html
  • 68_java-llm-proxy

    • 使用tio-boot搭建openai 代理服务
  • 70_tio-boot-admin

    • 入门指南
    • 初始化数据
    • token 存储
    • 与前端集成
    • 文件上传
    • 网络请求
    • 图片管理
    • /zh/70_tio-boot-admin/08.html
    • Word 管理
    • PDF 管理
    • 文章管理
    • 富文本编辑器
  • 71_tio-boot

    • /zh/71_tio-boot/01.html
    • Swagger 整合到 Tio-Boot 中的指南
    • HTTP/1.1 Pipelining 性能测试报告
  • 80_性能测试

    • 压力测试 - tio-http-serer
    • 压力测试 - tio-boot
    • 压力测试 - tio-boot-native
    • 压力测试 - netty-boot
    • 性能测试对比
    • TechEmpower FrameworkBenchmarks
    • 压力测试 - tio-boot 12 C 32G
  • 99_案例

    • 封装 IP 查询服务
    • tio-boot 案例 - 全局异常捕获与企业微信群通知
    • tio-boot 案例 - 文件上传和下载
    • tio-boot 案例 - 整合 ant design pro 增删改查
    • tio-boot 案例 - 流失响应
    • tio-boot 案例 - 增强检索
    • tio-boot 案例 - 整合 function call
    • tio-boot 案例 - 定时任务 监控 PostgreSQL、Redis 和 Elasticsearch
    • Tio-Boot 案例:使用 SQLite 整合到登录注册系统
    • tio-boot 案例 - 执行 shell 命令

使用tio-boot搭建openai 代理服务

本文档介绍如何基于 tio-boot 框架快速搭建一个 OpenAI 代理服务。该代理服务将接收来自客户端的 ChatGPT 请求(包括流式和非流式模式),并通过 OkHttp 将请求转发至 OpenAI API,同时负责将 OpenAI 返回的结果以 HTTP 响应或 SSE(Server-Sent Events)流的形式返回给客户端。

1. 概述

  • 使用场景:有时前端或其他后端服务由于网络策略(如不能直接访问 OpenAI API 域名)、权限或安全原因,需要中转 OpenAI 请求到代理服务,由该服务统一转发和聚合响应。本示例即演示如何用 tio-boot 快速搭建这种中转代理。

  • 核心思路:

    1. 前端请求发送至我们本地运行的 tio-boot HTTP 服务(地址如 http://127.0.0.1:80/openai/v1/chat/completions)
    2. 我们根据请求体中的 stream 字段决定采用异步流式(SSE)还是同步普通 HTTP 调用
    3. 使用 OkHttp 发送请求到 OpenAI API(同步或异步),将 OpenAI 返回的结果(JSON 或 SSE 流式增量数据)转发回前端

2. 环境准备

  1. JDK:建议使用 Java 8 或更高版本

  2. IDE:IntelliJ IDEA、Eclipse 等(已安装 Lombok 插件)

  3. Maven/Gradle:任意一种构建工具,下面示例基于 Maven

  4. 依赖库:pom.xml 中至少包含以下依赖:

     <!-- Tio Boot admin 框架 -->
     <dependency>
       <groupId>com.litongjava</groupId>
       <artifactId>tio-boot-admin</artifactId>
       <version>1.0.3</version>
     </dependency>
    
    <!-- fastjson2 -->
    <dependency>
      <groupId>com.alibaba.fastjson2</groupId>
      <artifactId>fastjson2</artifactId>
      <version>2.0.30</version>
    </dependency>
    
    <!-- Lombok -->
    <dependency>
      <groupId>org.projectlombok</groupId>
      <artifactId>lombok</artifactId>
      <version>1.18.26</version>
      <scope>provided</scope>
    </dependency>
    
  5. 环境变量:

    • OPENAI_API_URL:若需自定义代理的 OpenAI API 地址(默认值 https://api.openai.com/v1)
    • OPENAI_API_KEY:你的 OpenAI API Key

3. 项目结构

建议的 Maven 项目目录结构如下:

llm-proxy-app/
├─ src/
│  ├─ main/
│  │  ├─ java/
│  │  │  ├─ com/litongjava/llm/proxy/
│  │  │  │  ├─ LLMProxyApp.java
│  │  │  ├─ com/litongjava/llm/proxy/config/
│  │  │  │  └─ LLMProxyConfig.java
│  │  │  ├─ com/litongjava/llm/proxy/handler/
│  │  │  │  └─ OpenAIV1ChatHandler.java
│  │  │  ├─ com/litongjava/llm/proxy/callback/
│  │  │  │  └─ OpenAIProxyCallback.java
│  │  └─ resources/
│  │     └─ app.properties 
└─ pom.xml
  • LLMProxyApp.java:程序入口,启动 tio-boot Server
  • LLMProxyConfig.java:实现 BootConfiguration,注册路由路径与处理方法
  • OpenAIV1ChatHandler.java:核心业务处理类,根据 stream 字段决定同步/异步调用
  • OpenAIProxyCallback.java:异步回调,用于将 OpenAI SSE 流数据逐行推送给前端
  • OpenAiClient.java:封装 OkHttp 同步/异步调用 OpenAI 的方法

4. 关键代码说明

下面对项目中的核心 Java 类进行详细说明。

4.1 OpenAIV1ChatHandler.java(请求入口)

package com.litongjava.llm.proxy.handler;

import java.io.IOException;
import java.util.Map;
import com.alibaba.fastjson2.JSONObject;
import com.litongjava.llm.proxy.callback.OpenAIProxyCallback;
import com.litongjava.model.body.RespBodyVo;
import com.litongjava.openai.client.OpenAiClient;
import com.litongjava.tio.boot.http.TioRequestContext;
import com.litongjava.tio.core.ChannelContext;
import com.litongjava.tio.http.common.HttpRequest;
import com.litongjava.tio.http.common.HttpResponse;
import com.litongjava.tio.http.common.utils.HttpIpUtils;
import com.litongjava.tio.utils.hutool.StrUtil;
import com.litongjava.tio.utils.json.FastJson2Utils;
import lombok.extern.slf4j.Slf4j;
import okhttp3.Response;

/**
 * OpenAI V1 Chat Handler:接收前端请求后,分两种模式执行:
 *   - stream = true:异步 SSE 模式,使用 OpenAIProxyCallback 逐行推送
 *   - stream = false:同步普通 JSON 返回模式
 */
@Slf4j
public class OpenAIV1ChatHandler {

  public HttpResponse completions(HttpRequest httpRequest) {
    long start = System.currentTimeMillis();
    HttpResponse httpResponse = TioRequestContext.getResponse();

    String requestURI = httpRequest.getRequestURI();
    String bodyString = httpRequest.getBodyString();

    // 1. 校验 body 是否为空
    if (StrUtil.isBlank(bodyString)) {
      return httpResponse.setJson(RespBodyVo.fail("empty body"));
    }

    // 2. 记录客户端 IP、请求路径
    String realIp = HttpIpUtils.getRealIp(httpRequest);
    log.info("from:{}, requestURI: {}", realIp, requestURI);

    // 3. 获取并清理请求头(去掉 host、accept-encoding,避免转发问题)
    Map<String, String> headers = httpRequest.getHeaders();
    headers.remove("host");
    headers.remove("accept-encoding");

    // 4. 判断是否是流式请求
    Boolean stream = true;
    JSONObject openAiRequestVo = FastJson2Utils.parseObject(bodyString);
    if (openAiRequestVo != null) {
      stream = openAiRequestVo.getBoolean("stream");
    }

    if (Boolean.TRUE.equals(stream)) {
      // 4.1 流式(SSE)模式: 禁止默认处理器自动发送 body,自己用 SseEmitter 推送
      httpResponse.setSend(false);
      ChannelContext channelContext = httpRequest.getChannelContext();

      // 创建回调对象,将会逐行推送 OpenAI SSE 数据
      OpenAIProxyCallback callback =
          new OpenAIProxyCallback(channelContext, httpResponse, start);

      // 调用 OpenAiClient 异步请求,并传入 callback
      OpenAiClient.chatCompletions(headers, bodyString, callback);
    } else {
      // 4.2 同步普通模式: 直接转发请求并同步等待响应
      try (Response response =
               OpenAiClient.chatCompletions(headers, bodyString)) {
        // 将 OpenAI 返回的 JSON 字符串写回前端
        String respBody = response.body().string();
        httpResponse.setString(respBody, "utf-8", "application/json");
        log.info("chat request: {}, response: {}", bodyString, respBody);

      } catch (IOException e) {
        log.error("OpenAI 同步请求失败", e);
        return httpResponse.setJson(RespBodyVo.fail(e.getMessage()));
      }
      long end = System.currentTimeMillis();
      log.info("finish llm in {} ms", (end - start));
    }

    return httpResponse;
  }
}

要点说明:

  • httpRequest.getBodyString() 读取前端传过来的 JSON。

  • headers.remove("host")/remove("accept-encoding"):避免把本地的 Host、浏览器端的 accept-encoding 转发到 OpenAI,否则可能出现压缩/域名不匹配等问题。

  • 根据 stream 字段分两种分支:

    • 流式模式:httpResponse.setSend(false) 禁止 Tio 默认把 body 写回,改为通过 OpenAIProxyCallback 手动推送 SSE。
    • 非流式模式:直接同步调用 OpenAiClient.chatCompletions(...),拿到 Response 后把 response.body().string() 写回即可。

4.2 OpenAIProxyCallback.java(SSE 回调处理)

package com.litongjava.llm.proxy.callback;

import java.io.IOException;
import com.alibaba.fastjson2.JSONArray;
import com.alibaba.fastjson2.JSONObject;
import com.litongjava.model.body.RespBodyVo;
import com.litongjava.tio.boot.utils.OkHttpResponseUtils;
import com.litongjava.tio.core.ChannelContext;
import com.litongjava.tio.core.Tio;
import com.litongjava.tio.http.common.HeaderName;
import com.litongjava.tio.http.common.HeaderValue;
import com.litongjava.tio.http.common.HttpResponse;
import com.litongjava.tio.http.common.encoder.ChunkEncoder;
import com.litongjava.tio.http.common.sse.ChunkedPacket;
import com.litongjava.tio.http.server.util.SseEmitter;
import com.litongjava.tio.utils.SystemTimer;
import com.litongjava.tio.utils.json.FastJson2Utils;
import lombok.extern.slf4j.Slf4j;
import okhttp3.Call;
import okhttp3.Callback;
import okhttp3.Response;
import okhttp3.ResponseBody;

/**
 * OpenAI SSE 回调:将 OpenAI 返回的每一行增量数据(delta)按 SSE 格式推送给前端。
 */
@Slf4j
public class OpenAIProxyCallback implements Callback {

  private ChannelContext channelContext;
  private HttpResponse httpResponse;
  private long start;

  public OpenAIProxyCallback(
      ChannelContext channelContext,
      HttpResponse httpResponse,
      long start) {
    this.channelContext = channelContext;
    this.httpResponse = httpResponse;
    this.start = start;
  }

  @Override
  public void onFailure(Call call, IOException e) {
    // 请求 OpenAI 失败,直接返回失败 JSON
    e.printStackTrace();
    httpResponse.setSend(true);
    httpResponse.setJson(RespBodyVo.fail(e.getMessage()));
    Tio.send(channelContext, httpResponse);
  }

  @Override
  public void onResponse(Call call, Response response) throws IOException {
    // 1. 如果 OpenAI 返回非 2xx,直接透传状态码与 body
    if (!response.isSuccessful()) {
      httpResponse.setSend(true);
      OkHttpResponseUtils.toTioHttpResponse(response, httpResponse);
      httpResponse.setHasGzipped(true);
      httpResponse.removeHeaders("Content-Length");
      Tio.send(channelContext, httpResponse);
      return;
    }

    // 2. 设置 SSE 响应头
    httpResponse.addServerSentEventsHeader();
    httpResponse.addHeader(HeaderName.Keep_Alive, HeaderValue.from("timeout=60"));
    httpResponse.addHeader(HeaderName.Transfer_Encoding, HeaderValue.from("chunked"));

    // 第一次要先把 HTTP 响应头发送给客户端(告知客户端这是 SSE 长链接)
    if (!httpResponse.isSend()) {
      Tio.send(channelContext, httpResponse);
    }

    // 3. 通过 try-with-resources 自动关闭 ResponseBody
    try (ResponseBody responseBody = response.body()) {
      if (responseBody == null) {
        String errorMsg = "response body is null";
        log.error(errorMsg);
        byte[] errBytes = errorMsg.getBytes();
        ChunkedPacket ssePacket =
            new ChunkedPacket(ChunkEncoder.encodeChunk(errBytes));
        Tio.send(channelContext, ssePacket);
        SseEmitter.closeChunkConnection(channelContext);
        return;
      }

      // 4. 逐行读取 OpenAI SSE 返回的内容
      String line;
      while ((line = responseBody.source().readUtf8Line()) != null) {
        // OpenAI SSE 每一行以 "data: {...}\n" 形式返回,因此要拆分出真正的 JSON
        // 然后提取 delta.content 并推送
        if (line.length() < 1) {
          // 空行,忽略
          continue;
        }

        // 将整行字节原封不动地以 SSE chunk 发送给前端(前端自行解析 data 简单拆分)
        byte[] chunkBytes = (line + "\n\n").getBytes();
        if (line.length() > 6 && line.contains(":")) {
          int idx = line.indexOf(':');
          String jsonPart = line.substring(idx + 1).trim();
          if (jsonPart.endsWith("}")) {
            JSONObject parsed = FastJson2Utils.parseObject(jsonPart);
            JSONArray choices = parsed.getJSONArray("choices");
            if (!choices.isEmpty()) {
              // 如果 delta.content 存在,才 push
              String content =
                  choices.getJSONObject(0)
                         .getJSONObject("delta")
                         .getString("content");
              if (content != null) {
                SseEmitter.pushChunk(channelContext, chunkBytes);
              }
              // 这里可以解析更多字段,如 function_call、tool_calls 等
              extraChoices(choices);
            }
          } else {
            // 某些非 JSON 的行,也 push(如 [DONE] 等)
            SseEmitter.pushChunk(channelContext, chunkBytes);
          }
        } else {
          // 对于长度较小的控制行(如 data: [DONE]),也 push
          SseEmitter.pushChunk(channelContext, chunkBytes);
        }
      }

      // 5. 读取结束后关闭 SSE 连接(发送 0-length chunk)
      SseEmitter.closeChunkConnection(channelContext);
      log.info("elapsed: {} ms", (SystemTimer.currTime - start));
    }
  }

  /**
   * 可选:解析 choices 里的 function_call、tool_calls 等更多字段,用于后续业务处理
   */
  private void extraChoices(JSONArray choices) {
    for (int i = 0; i < choices.size(); i++) {
      JSONObject delta = choices.getJSONObject(i).getJSONObject("delta");
      // 解析 delta.content、delta.function_call 和 delta.tool_calls
      // …(此处可根据业务需要自行实现)…
    }
  }
}

要点说明:

  1. onResponse 里用 try (ResponseBody responseBody = response.body())

    • 通过 try-with-resources 确保最终关闭 responseBody,释放底层 Socket 或归还连接池。
    • 在循环退出时会自动调用 responseBody.close(),无需手动再关闭。
  2. SSE 头与 Chunked

    • httpResponse.addServerSentEventsHeader():相当于设置 Content-Type: text/event-stream、Cache-Control: no-cache 等头。
    • httpResponse.addHeader(HeaderName.Transfer_Encoding, HeaderValue.from("chunked")):启用 HTTP Chunked 模式,将每次推送都作为一个 chunk 发送。
    • SseEmitter.pushChunk(channelContext, chunkBytes):把一段字节(data: ...\n\n)包装成 ChunkedPacket 并推送。
  3. 推送增量数据

    • 每次 readUtf8Line() 读到一行:如果该行以 data: 开头且 JSON 完整,则解析出 choices[0].delta.content,只有当 content != null 时才 pushChunk。否则遇到诸如 data: [DONE]、data: { … } 等行,也原封不动地推送,最终让前端知道流已结束。
  4. SSE 结束

    • 循环退出后,调用 SseEmitter.closeChunkConnection(channelContext):发送一个空的 chunk(长度为 0),告诉客户端 Stream 结束。前端 EventSource 收到结束后会自动关闭,后端的 TCP 也随之断开。
  5. 错误处理

    • 如果 response.body() == null,立即推送错误并调用 SseEmitter.closeChunkConnection 关闭连接
    • 如果 OpenAI 返回非 2xx,使用 OkHttpResponseUtils.toTioHttpResponse() 将状态码、响应头、消息体透传给客户端

4.3 LLMProxyConfig.java(路由注册)

package com.litongjava.llm.proxy.config;

import com.litongjava.context.BootConfiguration;
import com.litongjava.llm.proxy.handler.OpenAIV1ChatHandler;
import com.litongjava.tio.boot.server.TioBootServer;
import com.litongjava.tio.http.server.router.HttpRequestRouter;

/**
 * LLMProxyConfig 用于注册 HTTP 路由,将 /openai/v1/chat/completions 映射到 OpenAIV1ChatHandler.completions 方法
 */
public class LLMProxyConfig implements BootConfiguration {

  @Override
  public void config() {
    TioBootServer server = TioBootServer.me();
    HttpRequestRouter requestRouter = server.getRequestRouter();

    // 注册路径:当收到 POST /openai/v1/chat/completions 时,调用 openAIV1ChatHandler.completions
    OpenAIV1ChatHandler openAIV1ChatHandler = new OpenAIV1ChatHandler();
    requestRouter.add(
        "/openai/v1/chat/completions",
        openAIV1ChatHandler::completions
    );
  }
}

要点说明:

  • 实现 BootConfiguration 接口后,tio-boot 启动时会自动调用 config()。
  • 通过 server.getRequestRouter().add(path, handlerMethod) 把 URI 路径与业务方法绑定。tio-boot 支持 Lambda 引用 handler::method。

4.4 LLMProxyApp.java(启动类)

package com.litongjava.llm.proxy;

import com.litongjava.llm.proxy.config.LLMProxyConfig;
import com.litongjava.tio.boot.TioApplication;

/**
 * 程序入口:启动 tio-boot 应用
 */
public class LLMProxyApp {
  public static void main(String[] args) {
    long start = System.currentTimeMillis();

    // 以当前类为 Spring-like 上下文启动,并加载 LLMProxyConfig 注册的路由
    TioApplication.run(LLMProxyApp.class, new LLMProxyConfig(), args);

    long end = System.currentTimeMillis();
    System.out.println("启动耗时:" + (end - start) + " ms");
  }
}

要点说明:

  • TioApplication.run(...) 会根据 LLMProxyApp.class 与 LLMProxyConfig 启动一个完整的 HTTP Server,默认端口 80。
  • 启动过程中会扫描到 LLMProxyConfig,并把路由注册到 TioBootServer,使得后续客户端请求 /openai/v1/chat/completions 时由 OpenAIV1ChatHandler.completions 处理。

5. 启动与测试

  1. 准备 OpenAI API Key 请在 app.properties(或系统环境变量)里配置:

    OPENAI_API_KEY=sk-**********************
    OPENAI_API_URL=https://api.openai.com/v1
    

    或者在运行时以 JVM 参数方式传入:

    java -DOPENAI_API_KEY=sk-*** -DOPENAI_API_URL=https://api.openai.com/v1 \
         -jar llm-proxy-app.jar
    
  2. 编译打包

    mvn clean package -DskipTests
    
  3. 启动服务

    java -jar target/llm-proxy-app-1.0.0.jar
    

    控制台输出示例:

    1234ms
    [INFO] Server started. Listening on port 80
    
  4. 测试非流式请求

    curl -X POST http://127.0.0.1/openai/v1/chat/completions \
      -H "Content-Type: application/json" \
      -d '{
        "model": "gpt-4o",
        "stream": false,
        "messages": [
          {"role":"system","content":"You are a helpful assistant."},
          {"role":"user","content":"Hello, world!"}
        ]
      }'
    
    • 代理服务会同步请求 OpenAI 并返回完整 JSON。例如:

      {
        "id": "chatcmpl-xxxxx",
        "object": "chat.completion",
        "choices": [
          {
            "index": 0,
            "message": {
              "role": "assistant",
              "content": "Hello! How can I assist you today?"
            },
            "finish_reason": "stop"
          }
        ],
        "usage": { … }
      }
      
  5. 测试流式 SSE 请求

    curl -N -X POST http://127.0.0.1/openai/v1/chat/completions \
      -H "Content-Type: application/json" \
      -d '{
        "model": "gpt-4o",
        "stream": true,
        "messages": [
          {"role":"system","content":"You are a helpful assistant."},
          {"role":"user","content":"Tell me a joke, please."}
        ]
      }'
    
    • -N 选项用于告诉 curl 保持连接,持续打印服务器推送的增量数据。

    • 你会看到形如:

      data: {"id":"chatcmpl-xxxxx","choices":[{"delta":{"content":"Sure! Here’s a joke:"}}]}
      
      data: {"id":"chatcmpl-xxxxx","choices":[{"delta":{"content":" Why don't scientists trust atoms?"}}]}
      
      data: {"id":"chatcmpl-xxxxx","choices":[{"delta":{"content":" Because they make up everything!"}}]}
      
      data: [DONE]
      
      

6. 注意事项

  1. ResponseBody 只读一次

    • 在 OpenAIV1ChatCallback 中,使用 responseBody.source().readUtf8Line() 逐行读取时,不要再另外调用 response.body() 或 response.body().bytes(),否则会导致流被重复消费而报错。
    • 在非流式分支中,使用 response.body().string() 自动完成读取并关闭流。
  2. 禁止转发客户端的 accept-encoding 头

    • 我们在 Handler 里手动移除了 headers.remove("accept-encoding"),避免 OpenAI 返回 Brotli 压缩流。若要开启 Brotli 支持,需要在 OkHttpClientPool 中添加 BrotliInterceptor.INSTANCE 并在回调中做手动解码。
  3. 并发与连接复用

    • OkHttpClient 建议为全局单例复用,否则每个请求都会新建连接池和线程池,影响性能。
    • 本示例假设 OpenAiClient 内部使用了共享的 OkHttpClientPool.get300HttpClient(),否则会出现资源无法复用。
  4. SSE 超时与断开

    • 我们在回调中设置了 Keep-Alive: timeout=60,告知客户端 60 秒无数据后自动断开。SseEmitter.closeChunkConnection(channelContext) 会在结束时发送一个空 chunk 并关闭连接。
  5. 异常路径处理

    • 如果在读取 SSE 过程中抛出 IOException,应在 catch 里输出日志并调用 SseEmitter.closeChunkConnection(...)。
  6. 日志与调试

    • 在开发环境,可在 OpenAIV1ChatHandler 的同步分支中打印 response.headers() 以便调试是否返回了 content-encoding: br,若需 Brotli 解码,可在 OkHttpClientPool 中添加 addNetworkInterceptor(BrotliInterceptor.INSTANCE)。

7. 总结

本文档完整演示了如何基于 tio-boot 框架构建一个 OpenAI 代理服务,支持流式(SSE)和非流式两种模式。

  • 主要组件:

    1. OpenAIV1ChatHandler:负责接收前端请求并根据 stream 字段选择同步或异步调用。
    2. OpenAIProxyCallback:用于异步 SSE 模式下,按行读取 OpenAI 的增量 data,并以 SSE chunk 形式推送给前端。
    3. LLMProxyConfig:将 /openai/v1/chat/completions 路径注册到 Handler
    4. LLMProxyApp:应用入口,启动 tio-boot HTTP Server
  • 关键技术点:

    • SSE (Server-Sent Events):HTTP/1.1 下的长连接推流方式,客户端使用 EventSource 监听服务器端增量更新。
    • OkHttp 异步回调:通过 enqueue(callback) 实现非阻塞请求,回调函数在收到响应时往 Tio ChannelContext 写数据。
    • try-with-resources 管理:通过 try (ResponseBody responseBody = response.body()) 自动关闭底层资源。
    • Header 清理与转发:移除 host、accept-encoding,避免域名/压缩协商冲突。

通过本示例,你可以快速在本地或云服务器上运行一个面向前端的 ChatGPT 代理,统一管理 API Key、日志、流量限流等,并可集成到更大规模的应用架构中。

若需扩展,可考虑:

  • 增加缓存层,减少重复 OpenAI 调用
  • 针对不同模型、不同路由做动态转发
  • 在 SSE 中解析更多字段(如 function_call、tool_calls),实现打通 Function Calling 逻辑
Edit this page
Last Updated:
Contributors: Tong Li