Tio Boot DocsTio Boot Docs
Home
  • java-db
  • api-table
  • Enjoy
  • Tio Boot Admin
  • ai_agent
  • translator
  • knowlege_base
  • ai-search
  • 案例
Abount
  • Github
  • Gitee
Home
  • java-db
  • api-table
  • Enjoy
  • Tio Boot Admin
  • ai_agent
  • translator
  • knowlege_base
  • ai-search
  • 案例
Abount
  • Github
  • Gitee
  • 01_tio-boot 简介

    • tio-boot:新一代高性能 Java Web 开发框架
    • tio-boot 入门示例
    • Tio-Boot 配置 : 现代化的配置方案
    • tio-boot 整合 Logback
    • tio-boot 整合 hotswap-classloader 实现热加载
    • 自行编译 tio-boot
    • 最新版本
    • 开发规范
  • 02_部署

    • 使用 Maven Profile 实现分环境打包 tio-boot 项目
    • Maven 项目配置详解:依赖与 Profiles 配置
    • tio-boot 打包成 FastJar
    • 使用 GraalVM 构建 tio-boot Native 程序
    • 使用 Docker 部署 tio-boot
    • 部署到 Fly.io
    • 部署到 AWS Lambda
    • 到阿里云云函数
    • 使用 Deploy 工具部署
    • 胖包与瘦包的打包与部署
    • 使用 Jenkins 部署 Tio-Boot 项目
    • 使用 Nginx 反向代理 Tio-Boot
    • 使用 Supervisor 管理 Java 应用
  • 03_配置

    • 配置参数
    • 服务器监听器
    • 内置缓存系统 AbsCache
    • 使用 Redis 作为内部 Cache
    • 静态文件处理器
    • 基于域名的静态资源隔离
    • DecodeExceptionHandler
  • 04_原理

    • 生命周期
    • 请求处理流程
    • 重要的类
  • 05_json

    • Json
    • 接受 JSON 和响应 JSON
    • 响应实体类
  • 06_web

    • 概述
    • 文件上传
    • 接收请求参数
    • 接收日期参数
    • 接收数组参数
    • 返回字符串
    • 返回文本数据
    • 返回网页
    • 请求和响应字节
    • 文件下载
    • 返回视频文件并支持断点续传
    • http Session
    • Cookie
    • HttpRequest
    • HttpResponse
    • Resps
    • RespBodyVo
    • /zh/06_web/19.html
    • 全局异常处理器
    • 异步
    • 动态 返回 CSS 实现
    • 返回图片
    • Transfer-Encoding: chunked 实时音频播放
    • Server-Sent Events (SSE)
    • 接口访问统计
    • 接口请求和响应数据记录
    • 自定义 Handler 转发请求
    • 使用 HttpForwardHandler 转发所有请求
    • 跨域
    • 添加 Controller
    • 常用工具类
    • HTTP Basic 认证
    • WebJars
    • JProtobuf
  • 07_validate

    • 数据紧校验规范
    • 参数校验
  • 08_websocket

    • 使用 tio-boot 搭建 WebSocket 服务
    • WebSocket 聊天室项目示例
  • 09_java-db

    • java‑db
    • 操作数据库入门示例
    • SQL 模板
    • 数据源配置与使用
    • ActiveRecord
    • Model
    • 生成器与 Model
    • Db 工具类
    • 批量操作
    • 数据库事务处理
    • Cache 缓存
    • Dialect 多数据库支持
    • 表关联操作
    • 复合主键
    • Oracle 支持
    • Enjoy SQL 模板
    • Java-DB 整合 Enjoy 模板最佳实践
    • 多数据源支持
    • 独立使用 ActiveRecord
    • 调用存储过程
    • java-db 整合 Guava 的 Striped 锁优化
    • 生成 SQL
    • 通过实体类操作数据库
    • java-db 读写分离
    • Spring Boot 整合 Java-DB
    • like 查询
    • 常用操作示例
    • Druid 监控集成指南
    • SQL 统计
  • 10_api-table

    • ApiTable 概述
    • 使用 ApiTable 连接 SQLite
    • 使用 ApiTable 连接 Mysql
    • 使用 ApiTable 连接 Postgres
    • 使用 ApiTable 连接 TDEngine
    • 使用 api-table 连接 oracle
    • 使用 api-table 连接 mysql and tdengine 多数据源
    • EasyExcel 导出
    • EasyExcel 导入
    • TQL(Table SQL)前端输入规范
    • ApiTable 实现增删改查
    • 数组类型
    • 单独使用 ApiTable
  • 11_aop

    • JFinal-aop
    • Aop 工具类
    • 配置
    • 配置
    • 独立使用 JFinal Aop
    • @AImport
    • 原理解析
  • 12_cache

    • Caffine
    • Jedis-redis
    • hutool RedisDS
    • Redisson
    • Caffeine and redis
    • CacheUtils 工具类
    • 使用 CacheUtils 整合 caffeine 和 redis 实现的两级缓存
    • 使用 java-db 整合 ehcache
    • 使用 java-db 整合 redis
    • Java DB Redis 相关 Api
    • redis 使用示例
  • 13_认证和权限

    • hutool-JWT
    • FixedTokenInterceptor
    • 使用内置 TokenManager 实现登录
    • 用户系统
    • 重置密码
    • 匿名登录
    • Google 登录
    • 权限校验注解
    • Sa-Token
    • sa-token 登录注册
    • StpUtil.isLogin() 源码解析
    • 短信登录
    • 移动端微信登录实现指南
    • 移动端重置密码
  • 14_i18n

    • i18n
  • 15_enjoy

    • tio-boot 整合 Enjoy 模版引擎文档
    • 引擎配置
    • 表达式
    • 指令
    • 注释
    • 原样输出
    • Shared Method 扩展
    • Shared Object 扩展
    • Extension Method 扩展
    • Spring boot 整合
    • 独立使用 Enjoy
    • tio-boot enjoy 自定义指令 localeDate
    • PromptEngine
    • Enjoy 入门示例-擎渲染大模型请求体
    • Enjoy 使用示例
  • 16_定时任务

    • Quartz 定时任务集成指南
    • 分布式定时任务 xxl-jb
    • cron4j 使用指南
  • 17_tests

    • TioBootTest 类
  • 18_tio

    • TioBootServer
    • tio-core
    • 内置 TCP 处理器
    • 独立启动 UDPServer
    • 使用内置 UDPServer
    • t-io 消息处理流程
    • tio-运行原理详解
    • TioConfig
    • ChannelContext
    • Tio 工具类
    • 业务数据绑定
    • 业务数据解绑
    • 发送数据
    • 关闭连接
    • Packet
    • 监控: 心跳
    • 监控: 客户端的流量数据
    • 监控: 单条 TCP 连接的流量数据
    • 监控: 端口的流量数据
    • 单条通道统计: ChannelStat
    • 所有通道统计: GroupStat
    • 资源共享
    • 成员排序
    • ssl
    • DecodeRunnable
    • 使用 AsynchronousSocketChannel 响应数据
    • 拉黑 IP
    • 深入解析 Tio 源码:构建高性能 Java 网络应用
  • 19_aio

    • ByteBuffer
    • AIO HTTP 服务器
    • 自定义和线程池和池化 ByteBuffer
    • AioHttpServer 应用示例 IP 属地查询
    • 手写 AIO Http 服务器
  • 20_netty

    • Netty TCP Server
    • Netty Web Socket Server
    • 使用 protoc 生成 Java 包文件
    • Netty WebSocket Server 二进制数据传输
    • Netty 组件详解
  • 21_netty-boot

    • Netty-Boot
    • 原理解析
    • 整合 Hot Reload
    • 整合 数据库
    • 整合 Redis
    • 整合 Elasticsearch
    • 整合 Dubbo
    • Listener
    • 文件上传
    • 拦截器
    • Spring Boot 整合 Netty-Boot
    • SSL 配置指南
    • ChannelInitializer
    • Reserve
  • 22_MQ

    • Mica-mqtt
    • EMQX
    • Disruptor
  • 23_tio-utils

    • tio-utils
    • HttpUtils
    • Notification
    • 邮箱
    • JSON
    • 读取文件
    • Base64
    • 上传和下载
    • Http
    • Telegram
    • RsaUtils
    • EnvUtils 使用文档
    • 系统监控
    • 毫秒并发 ID (MCID) 生成方案
  • 24_tio-http-server

    • 使用 Tio-Http-Server 搭建简单的 HTTP 服务
    • tio-boot 添加 HttpRequestHandler
    • 在 Android 上使用 tio-boot 运行 HTTP 服务
    • tio-http-server-native
    • handler 常用操作
  • 25_tio-websocket

    • WebSocket 服务器
    • WebSocket Client
  • 26_tio-im

    • 通讯协议文档
    • ChatPacket.proto 文档
    • java protobuf
    • 数据表设计
    • 创建工程
    • 登录
    • 历史消息
    • 发消息
  • 27_mybatis

    • Tio-Boot 整合 MyBatis
    • 使用配置类方式整合 MyBatis
    • 整合数据源
    • 使用 mybatis-plus 整合 tdengine
    • 整合 mybatis-plus
  • 28_mongodb

    • tio-boot 使用 mongo-java-driver 操作 mongodb
  • 29_elastic-search

    • Elasticsearch
    • JavaDB 整合 ElasticSearch
    • Elastic 工具类使用指南
    • Elastic-search 注意事项
    • ES 课程示例文档
  • 30_magic-script

    • tio-boot 整合 magic-script
  • 31_groovy

    • tio-boot 整合 Groovy
  • 32_firebase

    • 整合 google firebase
    • Firebase Storage
    • Firebase Authentication
    • 使用 Firebase Admin SDK 进行匿名用户管理与自定义状态标记
    • 导出用户
    • 注册回调
    • 登录注册
  • 33_文件存储

    • 文件上传数据表
    • 本地存储
    • 使用 AWS S3 存储文件并整合到 Tio-Boot 项目中
    • 存储文件到 腾讯 COS
  • 34_spider

    • jsoup
    • 爬取 z-lib.io 数据
    • 整合 WebMagic
    • WebMagic 示例:爬取学校课程数据
    • Playwright
    • Flexmark (Markdown 处理器)
    • tio-boot 整合 Playwright
    • 缓存网页数据
  • 36_integration_thirty_party

    • tio-boot 整合 okhttp
    • 整合 GrpahQL
    • 集成 Mailjet
    • 整合 ip2region
    • 整合 GeoLite 离线库
    • 整合 Lark 机器人指南
    • 集成 Lark Mail 实现邮件发送
    • Thymeleaf
    • Swagger
    • Clerk 验证
  • 37_dubbo

    • 概述
    • dubbo 2.6.0
    • dubbo 2.6.0 调用过程
    • dubbo 3.2.0
  • 38_spring

    • Spring Boot Web 整合 Tio Boot
    • spring-boot-starter-webflux 整合 tio-boot
    • Tio Boot 整合 Spring Boot Starter
    • Tio Boot 整合 Spring Boot Starter Data Redis 指南
  • 39_spring-cloud

    • tio-boot spring-cloud
  • 40_mysql

    • 使用 Docker 运行 MySQL
    • /zh/42_mysql/02.html
  • 41_postgresql

    • PostgreSQL 安装
    • PostgreSQL 主键自增
    • PostgreSQL 日期类型
    • Postgresql 金融类型
    • PostgreSQL 数组类型
    • PostgreSQL 全文检索
    • PostgreSQL 查询优化
    • 获取字段类型
    • PostgreSQL 向量
    • PostgreSQL 优化向量查询
    • PostgreSQL 其他
  • 43_oceanbase

    • 快速体验 OceanBase 社区版
    • 快速上手 OceanBase 数据库单机部署与管理
    • 诊断集群性能
    • 优化 SQL 性能指南
    • /zh/43_oceanbase/05.html
  • 50_media

    • JAVE 提取视频中的声音
    • Jave 提取视频中的图片
    • /zh/50_media/03.html
  • 51_asr

    • Whisper-JNI
  • 54_native-media

    • java-native-media
    • JNI 入门示例
    • mp3 拆分
    • mp4 转 mp3
    • 使用 libmp3lame 实现高质量 MP3 编码
    • Linux 编译
    • macOS 编译
    • 从 JAR 包中加载本地库文件
    • 支持的音频和视频格式
    • 任意格式转为 mp3
    • 通用格式转换
    • 通用格式拆分
    • 视频合并
    • VideoToHLS
    • split_video_to_hls 支持其他语言
    • 持久化 HLS 会话
  • 55_telegram4j

    • 数据库设计
    • /zh/55_telegram4j/02.html
    • 基于 MTProto 协议开发 Telegram 翻译机器人
    • 过滤旧消息
    • 保存机器人消息
    • 定时推送
    • 增加命令菜单
    • 使用 telegram-Client
    • 使用自定义 StoreLayout
    • 延迟测试
    • Reactor 错误处理
    • Telegram4J 常见错误处理指南
  • 56_telegram-bots

    • TelegramBots 入门指南
    • 使用工具库 telegram-bot-base 开发翻译机器人
  • 60_LLM

    • 简介
    • AI 问答
    • /zh/60_LLM/03.html
    • /zh/60_LLM/04.html
    • 增强检索(RAG)
    • 结构化数据检索
    • 搜索+AI
    • 集成第三方 API
    • 后置处理
    • 推荐问题生成
    • 连接代码执行器
    • 避免 GPT 混乱
    • /zh/60_LLM/13.html
  • 61_ai_agent

    • 数据库设计
    • 示例问题管理
    • 会话管理
    • 历史记录
    • 对接 Perplexity API
    • 意图识别与生成提示词
    • 智能问答模块设计与实现
    • 文件上传与解析文档
    • 翻译
    • 名人搜索功能实现
    • Ai studio gemini youbue 问答使用说明
    • 自建 YouTube 字幕问答系统
    • 自建 获取 youtube 字幕服务
    • 通用搜索
    • /zh/61_ai_agent/15.html
    • 16
    • 17
    • 18
    • 在 tio-boot 应用中整合 ai-agent
    • 16
  • 62_translator

    • 简介
  • 63_knowlege_base

    • 数据库设计
    • 用户登录实现
    • 模型管理
    • 知识库管理
    • 文档拆分
    • 片段向量
    • 命中测试
    • 文档管理
    • 片段管理
    • 问题管理
    • 应用管理
    • 向量检索
    • 推理问答
    • 问答模块
    • 统计分析
    • 用户管理
    • api 管理
    • 存储文件到 S3
    • 文档解析优化
    • 片段汇总
    • 段落分块与检索
    • 多文档解析
    • 对话日志
    • 检索性能优化
    • Milvus
    • 文档解析方案和费用对比
    • 离线运行向量模型
  • 64_ai-search

    • ai-search 项目简介
    • ai-search 数据库文档
    • ai-search SearxNG 搜索引擎
    • ai-search Jina Reader API
    • ai-search Jina Search API
    • ai-search 搜索、重排与读取内容
    • ai-search PDF 文件处理
    • ai-search 推理问答
    • Google Custom Search JSON API
    • ai-search 意图识别
    • ai-search 问题重写
    • ai-search 系统 API 接口 WebSocket 版本
    • ai-search 搜索代码实现 WebSocket 版本
    • ai-search 生成建议问
    • ai-search 生成问题标题
    • ai-search 历史记录
    • Discover API
    • 翻译
    • Tavily Search API 文档
    • 对接 Tavily Search
    • 火山引擎 DeepSeek
    • 对接 火山引擎 DeepSeek
    • ai-search 搜索代码实现 SSE 版本
    • jar 包部署
    • Docker 部署
    • 爬取一个静态网站的所有数据
    • 网页数据预处理
    • 网页数据检索与问答流程整合
  • 65_java-linux

    • Java 执行 python 代码
    • 通过大模型执行 Python 代码
    • MCP 协议
    • Cline 提示词
    • Cline 提示词-中文版本
  • 66_manim

    • 简介
    • Manim 开发环境搭建
    • 生成场景提示词
    • 生成代码
    • 完整脚本示例
    • 语音合成系统
    • Fish.audio TTS 接口说明文档与 Java 客户端封装
    • 整合 fishaudio 到 java-uni-ai-server 项目
    • 执行 Python (Manim) 代码
    • 使用 SSE 流式传输生成进度的实现文档
    • 整合全流程完整文档
    • HLS 动态推流技术文档
    • manim 分场景生成代码
    • 分场景运行代码及流式播放支持
    • 分场景业务端完整实现流程
    • Maiim布局管理器
    • 仅仅生成场景代码
    • 使用 modal 运行 manim 代码
    • Python 使用 Modal GPU 加速渲染
    • Modal 平台 GPU 环境下运行 Manim
    • Modal Manim OpenGL 安装与使用
    • 优化 GPU 加速
    • 生成视频封面流程
    • Java 调用 manim 命令 执行代码 生成封面
    • Manim 图像生成服务客户端文档
    • manim render help
    • 显示 中文公式
    • manimgl
    • EGL
    • /zh/66_manim/30.html
    • /zh/66_manim/31.html
    • 成本核算
    • /zh/66_manim/33.html
  • 70_tio-boot-admin

    • 入门指南
    • 初始化数据
    • token 存储
    • 与前端集成
    • 文件上传
    • 网络请求
    • 图片管理
    • /zh/70_tio-boot-admin/08.html
    • Word 管理
    • PDF 管理
    • 文章管理
    • 富文本编辑器
  • 71_tio-boot

    • /zh/71_tio-boot/01.html
    • Swagger 整合到 Tio-Boot 中的指南
    • HTTP/1.1 Pipelining 性能测试报告
  • 80_性能测试

    • 压力测试 - tio-http-serer
    • 压力测试 - tio-boot
    • 压力测试 - tio-boot-native
    • 压力测试 - netty-boot
    • 性能测试对比
    • TechEmpower FrameworkBenchmarks
    • 压力测试 - tio-boot 12 C 32G
  • 99_案例

    • 封装 IP 查询服务
    • tio-boot 案例 - 全局异常捕获与企业微信群通知
    • tio-boot 案例 - 文件上传和下载
    • tio-boot 案例 - 整合 ant design pro 增删改查
    • tio-boot 案例 - 流失响应
    • tio-boot 案例 - 增强检索
    • tio-boot 案例 - 整合 function call
    • tio-boot 案例 - 定时任务 监控 PostgreSQL、Redis 和 Elasticsearch
    • Tio-Boot 案例:使用 SQLite 整合到登录注册系统
    • tio-boot 案例 - 执行 shell 命令

智能问答模块设计与实现

本文档详细介绍了校园领域搜索问答系统中的智能问答功能模块的设计与实现。该模块旨在通过接收用户提问、校验会话合法性、问题重写、生成提示词并交由大模型推理,管理历史记录以及控制推理过程,提供高效、精准的智能问答服务。本文将涵盖功能概述、接口设计、控制器实现、服务层实现以及代码优化。

功能概述

智能问答模块主要负责以下功能:

  1. 接收用户提问:通过 API 接口接收用户的提问内容。
  2. 校验会话是否合法:确保用户的会话 ID 有效且属于当前用户。
  3. 问题重写:对用户的提问进行优化和重写,提高大模型理解的准确性。
  4. 生成提示词并交给大模型推理:根据用户提问生成相应的提示词,调用大模型(如 GPT-4)进行推理。
  5. 管理历史记录:记录用户的提问和系统的回答,支持查询和管理历史记录。
  6. 停止推理:提供接口以便用户在需要时停止正在进行的推理过程。

接口设计

1. 发送用户提问

  • 请求方法:POST

  • 接口路径:/api/v1/chat/send

  • 请求头:

    Content-Type: application/json
    
  • 请求体:

    {
      "session_id": "452057544733368320",
      "validateChatId": true,
      "school_id": 1,
      "type": "general",
      "app_id": "",
      "messages": [
        {
          "role": "user",
          "content": "When is the last day of Kapiolani Community College in spring 2025"
        }
      ],
      "stream": true
    }
    
  • SSE 数据示例:

    event:delta
    data:{"content":"- Think about your question: When is the last day of Kapiolani Community College in spring 2025\r\n"}
    
    event:progress
    data:The number of history records to be queried:0
    
    event:message_id
    data:{"question_id":"452093442603847680"}
    
    event:progress
    data:Serach it is processed using ppl
    
    event:question
    data:When is the last day of Kapiolani Community College in spring 2025?
    
    event:delta
    data:{"content":"- Understand your intention: When is the last day of Kapiolani Community College in spring 2025?\r\n"}
    
    event:delta
    data:{"content":"- Searching... \r\n"}
    
    event:progress
    data:default
    
    event:input
    data:[]
    
    event:delta
    data:{"content":"- Reply to your question.\r\n\r\n"}
    
    event:citations
    data:["https://www.bhcc.edu/academic-calendar/academiccalendar-spring2025/","https://kellogg.edu/about/academic-calendar/","https://hawaii.hawaii.edu/sites/default/files/assets/catalog/docs/02-academic_calendar.pdf","https://www.kapiolani.hawaii.edu/classes/academic-calendar/","https://www.kapiolani.hawaii.edu/classes/"]
    
    event:delta
    data:{"content":"The"}
    
    event:delta
    data:{"content":" last day"}
    
    event:delta
    data:{"content":" of the"}
    
    event:delta
    data:{"content":" Spring "}
    
    event:delta
    data:{"content":"2025"}
    
    event:delta
    data:{"content":" semester at"}
    
    event:delta
    data:{"content":" Kapi"}
    
    event:delta
    data:{"content":"olani"}
    
    event:delta
    data:{"content":" Community College"}
    
    event:delta
    data:{"content":" is Friday"}
    
    event:delta
    data:{"content":", May"}
    
    event:delta
    data:{"content":" 16"}
    
    event:delta
    data:{"content":", "}
    
    event:delta
    data:{"content":"2025"}
    
    event:delta
    data:{"content":". This"}
    
    event:delta
    data:{"content":" marks the"}
    
    event:delta
    data:{"content":" end of"}
    
    event:delta
    data:{"content":" the semester"}
    
    event:delta
    data:{"content":", following"}
    
    event:delta
    data:{"content":" the final"}
    
    event:delta
    data:{"content":" examination period"}
    
    event:delta
    data:{"content":" which takes"}
    
    event:delta
    data:{"content":" place from"}
    
    event:delta
    data:{"content":" May "}
    
    event:delta
    data:{"content":"8 to"}
    
    event:delta
    data:{"content":" May "}
    
    event:delta
    data:{"content":"16[4]."}
    
    event:message_id
    data:{"answer_id":"452093453534203904"}
    

2. 停止推理

  • 请求方法:POST

  • 接口路径:/api/v1/chat/stop

  • 请求参数:

    参数类型描述是否必填
    session_idLong会话 ID是
  • 请求示例:

    POST /api/v1/chat/stop?session_id=452057544733368320
    
  • 响应示例:

    {
      "data": null,
      "code": 1,
      "msg": null,
      "ok": true
    }
    

控制器实现

ApiChatHandler类负责处理与智能问答相关的 HTTP 请求,包括发送用户提问和停止推理。以下是该类的实现代码及说明:

package com.litongjava.llm.handler;

import com.jfinal.kit.Kv;
import com.litongjava.db.TableResult;
import com.litongjava.jfinal.aop.Aop;
import com.litongjava.llm.service.LlmAiChatService;
import com.litongjava.llm.service.LlmChatHistoryService;
import com.litongjava.llm.service.LlmChatMessageService;
import com.litongjava.llm.service.LlmRewriteQuestionService;
import com.litongjava.llm.service.UserAskQuesitonService;
import com.litongjava.model.body.RespBodyVo;
import com.litongjava.model.page.Page;
import com.litongjava.tio.boot.http.TioRequestContext;
import com.litongjava.tio.http.common.HttpRequest;
import com.litongjava.tio.http.common.HttpResponse;
import com.litongjava.tio.http.server.util.CORSUtils;
import com.litongjava.tio.utils.json.FastJson2Utils;
import com.litongjava.tio.utils.json.JsonUtils;
import com.litongjava.tio.utils.hutool.StrUtil;
import com.alibaba.fastjson2.JSONArray;
import com.alibaba.fastjson2.JSONObject;

import lombok.extern.slf4j.Slf4j;

@Slf4j
public class ApiChatHandler {

  private final LlmAiChatService aiChatService = Aop.get(LlmAiChatService.class);

  /**
   * 发送用户提问
   *
   * @param request HTTP请求对象
   * @return HTTP响应对象
   */
  public HttpResponse send(HttpRequest request) {
    HttpResponse response = TioRequestContext.getResponse();
    CORSUtils.enableCORS(response);

    JSONObject payload = FastJson2Utils.parseObject(request.getBodyString());
    Long sessionId = payload.getLong("session_id");
    Boolean validateChatId = payload.getBoolean("validateChatId");
    Long schoolId = payload.getLong("school_id");
    String type = payload.getString("type");
    Long appId = StrUtil.isNotBlank(payload.getString("app_id")) ? payload.getLong("app_id") : null;
    JSONArray messages = payload.getJSONArray("messages");
    Boolean stream = payload.getBoolean("stream");

    String userId = TioRequestContext.getUserIdString();

    // 校验会话是否合法
    if (validateChatId != null && validateChatId) {
      boolean exists = Aop.get(LlmChatHistoryService.class).exists(sessionId, userId);
      if (!exists) {
        return response.fail(RespBodyVo.fail("invalid session_id"));
      }
    }

    // 调用智能问答服务
    RespBodyVo respBody = aiChatService.index(TioRequestContext.getChannelContext(), stream, userId, sessionId, type, appId, 1, schoolId, messages);
    return response.setJson(respBody);
  }

  /**
   * 停止推理
   *
   * @param request HTTP请求对象
   * @return HTTP响应对象
   */
  public HttpResponse stop(HttpRequest request) {
    HttpResponse response = TioRequestContext.getResponse();
    CORSUtils.enableCORS(response);

    Long sessionId = request.getLong("session_id");
    if (sessionId == null) {
      return response.fail(RespBodyVo.fail("session_id can not be empty"));
    }

    okhttp3.Call call = ChatStreamCallCan.stop(sessionId);
    if (call != null) {
      return response.setJson(RespBodyVo.ok("Inference stopped successfully"));
    } else {
      return response.fail(RespBodyVo.fail("No active inference found for the given session_id"));
    }
  }
}

控制器代码说明

  • send:

    • 处理/api/v1/chat/send的POST请求。
    • 从请求体中解析session_id、validateChatId、school_id、type、app_id、messages和stream参数。
    • 如果validateChatId为true,则调用LlmChatHistoryService.exists方法校验会话是否合法。
    • 调用服务层LlmAiChatService.index方法处理用户提问,并返回响应结果。
  • stop:

    • 处理/api/v1/chat/stop的POST请求。
    • 获取并校验session_id参数。
    • 调用ChatStreamCallCan.stop方法尝试停止正在进行的推理过程。
    • 根据停止结果返回相应的响应。

服务层实现

1.ChatMessagesVo

package com.litongjava.llm.vo;

import java.util.List;

import com.litongjava.openai.chat.ChatMessage;

import lombok.AllArgsConstructor;
import lombok.Builder;
import lombok.Data;
import lombok.NoArgsConstructor;

@Data
@NoArgsConstructor
@AllArgsConstructor
@Builder
public class ChatMessagesVo {
  private boolean hasImage;
  private List<ChatMessage> messages;
  private String textQuestion;
  private String inputQuesiton;
}

2. AiChatEventName(聊天事件名称常量接口)

定义聊天过程中使用的事件名称,确保事件的一致性和可维护性。

package com.litongjava.llm.consts;

public interface AiChatEventName {
  String question = "question";
  String progress = "progress";
  String markdown = "markdown";
  String delta = "delta";
  String citations = "citations";
  String message_id = "message_id";

  String summary_question = "summary_question";
  String table = "table";
  String input = "input";
  String rerank = "rerank";
  String need_login = "need_login";
  String error = "error";
  String paragraph = "paragraph";
  String documents = "documents";
}

3. ChatStreamCallCan(聊天流调用管理类)

负责管理聊天流的 HTTP 调用,支持停止和移除特定会话的推理过程。

package com.litongjava.llm.can;

import java.util.Map;
import java.util.concurrent.ConcurrentHashMap;

import okhttp3.Call;

public class ChatStreamCallCan {
  public static Map<Long, Call> callMap = new ConcurrentHashMap<>();

  /**
   * 停止特定会话的推理过程
   *
   * @param id 会话ID
   * @return 被停止的Call对象
   */
  public static Call stop(Long id) {
    Call call = callMap.get(id);
    if (call != null && !call.isCanceled()) {
      call.cancel();
      return callMap.remove(id);
    }
    return null;
  }

  /**
   * 移除特定会话的Call对象
   *
   * @param id 会话ID
   * @return 被移除的Call对象
   */
  public static Call remove(Long id) {
    return callMap.remove(id);
  }

  /**
   * 添加会话的Call对象
   *
   * @param chatId 会话ID
   * @param call   Call对象
   */
  public static void put(Long chatId, Call call) {
    callMap.put(chatId, call);
  }
}

4. LlmChatMessageService(消息解析服务)

package com.litongjava.llm.service;

import java.util.ArrayList;
import java.util.List;

import com.alibaba.fastjson2.JSONArray;
import com.alibaba.fastjson2.JSONObject;
import com.litongjava.llm.vo.ChatMessagesVo;
import com.litongjava.openai.chat.ChatMessage;
import com.litongjava.openai.chat.ChatRequestImage;
import com.litongjava.openai.chat.ChatRequestMultiContent;

public class LlmChatMessageService {

  public ChatMessagesVo parse(JSONArray reqMessages) {
    List<ChatMessage> messages = new ArrayList<>();
    boolean hasImage = false;
    String textQuestion = null;


    for (int i = 0; i < reqMessages.size(); i++) {
      JSONObject message = reqMessages.getJSONObject(i);
      String role = message.getString("role");
      Object content = message.get("content");

      if ("system".equals(role)) {
        textQuestion = content.toString();
        messages.add(new ChatMessage().role(role).content(content.toString()));

      } else if ("user".equals(role)) {
        if (content instanceof String) {
          textQuestion = content.toString();
          // 文本消息单独返回,不添加到最终的消息体中
          // messages.add(new ChatMessage().role(role).content(content.toString()));

        } else if (content instanceof JSONArray) {
          JSONArray contentsArray = (JSONArray) content;
          for (int j = 0; j < contentsArray.size(); j++) {
            JSONObject contentObj = contentsArray.getJSONObject(j);
            String type = contentObj.getString("type");
            if ("image_url".equals(type)) {
              hasImage = true;
              JSONObject imageUrl = contentObj.getJSONObject("image_url");
              String url = imageUrl.getString("url");

              if (url.startsWith("data:image/")) {
                ChatRequestImage image = new ChatRequestImage();
                image.setUrl(url);
                image.setDetail(imageUrl.getString("detail"));

                ChatRequestMultiContent multiContent = new ChatRequestMultiContent();
                multiContent.setType("image_url");
                multiContent.setImage_url(image);

                List<ChatRequestMultiContent> multiContents = new ArrayList<>();
                multiContents.add(multiContent);

                messages.add(new ChatMessage().role(role).multiContents(multiContents));
              } else {
                throw new RuntimeException("image is not encoded with base64");
              }
            } else if ("text".equals(type)) {
              messages.add(new ChatMessage().role(role).content(contentObj.getString("text")));
            }
          }
        }
      }
    }

    return ChatMessagesVo.builder().hasImage(hasImage).messages(messages).textQuestion(textQuestion).build();
  }
}

5. LlmAiChatService(智能问答服务)

负责处理用户的提问,包括校验、重写、生成提示词、调用大模型推理、管理历史记录以及控制推理过程。

package com.litongjava.llm.service;

import java.util.ArrayList;
import java.util.List;

import com.alibaba.fastjson2.JSONArray;
import com.jfinal.kit.Kv;
import com.litongjava.db.TableResult;
import com.litongjava.db.activerecord.Row;
import com.litongjava.jfinal.aop.Aop;
import com.litongjava.llm.can.ChatStreamCallCan;
import com.litongjava.llm.consts.AiChatEventName;
import com.litongjava.llm.dao.SchoolDictDao;
import com.litongjava.llm.utils.LarkBotQuestionUtils;
import com.litongjava.llm.vo.AiChatResponseVo;
import com.litongjava.llm.vo.ChatMessagesVo;
import com.litongjava.llm.vo.SchoolDict;
import com.litongjava.model.body.RespBodyVo;
import com.litongjava.openai.chat.ChatMessage;
import com.litongjava.openai.chat.ChatResponseVo;
import com.litongjava.openai.chat.OpenAiChatRequestVo;
import com.litongjava.openai.client.OpenAiClient;
import com.litongjava.openai.consts.OpenAiModels;
import com.litongjava.tio.core.ChannelContext;
import com.litongjava.tio.core.Tio;
import com.litongjava.tio.http.common.sse.SsePacket;
import com.litongjava.tio.http.server.util.SseEmitter;
import com.litongjava.tio.utils.environment.EnvUtils;
import com.litongjava.tio.utils.hutool.StrUtil;
import com.litongjava.tio.utils.json.JsonUtils;
import com.litongjava.tio.utils.snowflake.SnowflakeIdUtils;
import com.litongjava.tio.utils.thread.TioThreadUtils;

import lombok.extern.slf4j.Slf4j;
import okhttp3.Call;
import okhttp3.Callback;

@Slf4j
public class LlmAiChatService {
  ChatStreamCommonService chatStreamCommonService = Aop.get(ChatStreamCommonService.class);
  LLmAiChatSearchService aiChatSearchService = Aop.get(LLmAiChatSearchService.class);

  public RespBodyVo index(ChannelContext channelContext, Boolean stream,
      //
      String userId, Long sessionId,
      //
      String type, Long appId, Integer chatType, Long schoolId, JSONArray messages) {

    ChatMessagesVo chatMessages = Aop.get(LlmChatMessageService.class).parse(messages);
    return predict(channelContext, stream, userId, sessionId, type, appId, schoolId, chatMessages);
  }

  public RespBodyVo predict(ChannelContext channelContext, Boolean stream,
      //
      String userId, Long sessionId, String type, Long appId, Long schoolId, ChatMessagesVo chatMessages) {
    String textQuestion = chatMessages.getTextQuestion();

    chatMessages.setInputQuesiton(textQuestion);
    if (textQuestion != null) {
      if (stream) {
        Kv kv = Kv.by("content", "- Think about your question: " + textQuestion + "\r\n");
        SsePacket packet = new SsePacket(AiChatEventName.progress, JsonUtils.toJson(kv));
        Tio.bSend(channelContext, packet);
      }

    }
    if (textQuestion.startsWith("__echo:")) {
      String[] split = textQuestion.split(":");
      if (stream) {
        SsePacket packet = new SsePacket(AiChatEventName.delta, JsonUtils.toJson(Kv.by("content", "\r\n\r\n")));
        Tio.bSend(channelContext, packet);

        packet = new SsePacket(AiChatEventName.delta, JsonUtils.toJson(Kv.by("content", split[1])));
        Tio.bSend(channelContext, packet);

        packet = new SsePacket(AiChatEventName.delta, JsonUtils.toJson(Kv.by("content", "end")));
        Tio.bSend(channelContext, packet);

        SseEmitter.closeSeeConnection(channelContext);
      }
      return RespBodyVo.ok(new AiChatResponseVo(split[1]));
    }

    if (schoolId == null) {
      schoolId = 1L;
    }
    SchoolDict schoolDict = null;

    try {
      schoolDict = Aop.get(SchoolDictDao.class).getNameById(schoolId.longValue());
    } catch (Exception e) {
      e.printStackTrace();

      String error = e.getMessage();
      if (stream) {
        SsePacket ssePacket = new SsePacket(AiChatEventName.error, error.getBytes());
        Tio.bSend(channelContext, ssePacket);
        SseEmitter.closeSeeConnection(channelContext);
      }
      return RespBodyVo.fail(error);
    }
    if (schoolDict == null) {
      String error = "schoolId not not found";
      if (stream) {
        SsePacket ssePacket = new SsePacket(AiChatEventName.error, error.getBytes());
        Tio.bSend(channelContext, ssePacket);
        SseEmitter.closeSeeConnection(channelContext);
      }
      return RespBodyVo.fail(error);
    }

    List<Row> histories = null;
    try {
      histories = Aop.get(LlmChatHistoryService.class).getHistory(sessionId);
    } catch (Exception e) {
      e.printStackTrace();
      String error = e.getMessage();
      if (stream) {
        SsePacket ssePacket = new SsePacket(AiChatEventName.error, error);
        Tio.bSend(channelContext, ssePacket);
        SseEmitter.closeSeeConnection(channelContext);
      }
      return RespBodyVo.fail(error);
    }

    int size = 0;
    if (histories != null) {
      size = histories.size();
    }

    if (stream) {
      SsePacket ssePacket = new SsePacket(AiChatEventName.progress, ("The number of history records to be queried:" + size).getBytes());
      Tio.bSend(channelContext, ssePacket);
    }

    boolean isFirstQuestion = false;
    if (histories == null || size < 1) {
      isFirstQuestion = true;
    }

    List<ChatMessage> historyMessage = new ArrayList<>();
    for (Row record : histories) {
      String role = record.getStr("role");
      String content = record.getStr("content");
      historyMessage.add(new ChatMessage(role, content));
    }

    AiChatResponseVo aiChatResponseVo = new AiChatResponseVo();
    // save to the user question to db
    if (StrUtil.isNotEmpty(textQuestion)) {
      long questionId = SnowflakeIdUtils.id();
      TableResult<Kv> ts = Aop.get(LlmChatHistoryService.class).saveUser(questionId, sessionId, textQuestion);
      if (ts.getCode() != 1) {
        log.error("Failed to save message:{}", ts.toString());
      } else {
        if (stream) {
          Kv kv = Kv.by("question_id", questionId);
          SsePacket packet = new SsePacket(AiChatEventName.message_id, JsonUtils.toJson(kv));
          Tio.bSend(channelContext, packet);
        }
        aiChatResponseVo.setQuesitonId(questionId);
      }
    }

    if (StrUtil.isNotEmpty(textQuestion)) {
      StringBuffer stringBuffer = new StringBuffer();

      stringBuffer.append("app env:").append(EnvUtils.getStr("app.env")).append("\n")
          //
          .append("userId:").append(userId).append("\n")//
          .append("schooL id:").append(schoolId).append("\n")
          //
          .append("schooL name:").append(schoolDict.getFullName()).append("\n")
          //
          .append("user question:").append(textQuestion).append("\n")
          //
          .append("type:").append(type);
      if (appId != null) {
        stringBuffer.append("app id:").append(appId);
      }

      log.info("question:{}", stringBuffer.toString());

      if (!EnvUtils.isDev()) {
        String thatTextQuestion = textQuestion;
        TioThreadUtils.submit(() -> {
          LarkBotQuestionUtils.send(stringBuffer.toString());
          if (stream) {
            SsePacket packet = new SsePacket(AiChatEventName.progress, "send message to lark");
            Tio.send(channelContext, packet);
          }
          // save to db
          Aop.get(UserAskQuesitonService.class).save(thatTextQuestion);
        });
      }
    }
    if (size > 20) {
      String message = "Dear user, your conversation count has exceeded the maximum length for multiple rounds of conversation. "
          //
          + "Please start a new session. Your new question might be:" + textQuestion;

      long answerId = SnowflakeIdUtils.id();
      aiChatResponseVo.setAnswerId(answerId);

      Aop.get(LlmChatHistoryService.class).saveAssistant(answerId, sessionId, message);
      Kv kv = Kv.by("answer_id", answerId);
      if (stream) {
        SsePacket ssePacket = new SsePacket(AiChatEventName.progress, JsonUtils.toJson(Kv.by("content", message)));
        Tio.bSend(channelContext, ssePacket);
        SsePacket packet = new SsePacket(AiChatEventName.message_id, JsonUtils.toJson(kv));
        Tio.send(channelContext, packet);
        SseEmitter.closeSeeConnection(channelContext);
      }
      aiChatResponseVo.setContent(message);
      return RespBodyVo.ok(message);
    }
    if (isFirstQuestion && textQuestion != null) {
      textQuestion += " at " + schoolDict.getFullName() + " in Fall 2024";
    }

    if (chatMessages.isHasImage()) {
      if (stream) {
        SsePacket packet = new SsePacket(AiChatEventName.progress, "Because there are pictures, it is processed using gpt4o");
        Tio.bSend(channelContext, packet);
      }
      String answer = processMessageByChatModel(sessionId, chatMessages, isFirstQuestion, stream, channelContext);
      aiChatResponseVo.setContent(answer);
      return RespBodyVo.ok(aiChatResponseVo);

    } else if (textQuestion != null && textQuestion.startsWith("4o:")) {
      if (stream) {
        SsePacket packet = new SsePacket(AiChatEventName.progress, "The user specifies that the gpt4o model is used for message processing");
        Tio.bSend(channelContext, packet);
      }
      String answer = processMessageByChatModel(sessionId, chatMessages, isFirstQuestion, stream, channelContext);
      aiChatResponseVo.setContent(answer);
      return RespBodyVo.ok(aiChatResponseVo);

    } else {
      if (stream) {
        SsePacket packet = new SsePacket(AiChatEventName.progress, "Serach it is processed using ppl");
        Tio.bSend(channelContext, packet);
      }

      if (textQuestion != null) {
        // rewrite question
        textQuestion = Aop.get(LlmRewriteQuestionService.class).rewrite(textQuestion, historyMessage);
        log.info("rewrite question:{}", textQuestion);

        if (stream != null) {
          SsePacket packet = new SsePacket(AiChatEventName.question, textQuestion);
          Tio.bSend(channelContext, packet);
          Kv kv = Kv.by("content", "- Understand your intention: " + textQuestion + "\r\n");
          packet = new SsePacket(AiChatEventName.progress, JsonUtils.toJson(kv));
          Tio.bSend(channelContext, packet);
        }
        aiChatResponseVo.setRewrite(textQuestion);
        chatMessages.setTextQuestion(textQuestion);
      }

      aiChatSearchService.processMessageBySearchModel(schoolId, sessionId, chatMessages, isFirstQuestion,
          //
          historyMessage, stream, channelContext, aiChatResponseVo);
      return RespBodyVo.ok(aiChatResponseVo);
    }
  }

  public String processMessageByChatModel(Long sessionId, ChatMessagesVo chatMessages, boolean isFirstQuestion, Boolean stream, ChannelContext channelContext) {
    long start = System.currentTimeMillis();
    // 添加文本
    List<ChatMessage> messages = chatMessages.getMessages();
    messages.add(new ChatMessage("user", chatMessages.getTextQuestion()));

    OpenAiChatRequestVo chatRequestVo = new OpenAiChatRequestVo().setModel(OpenAiModels.gpt_4o_mini).setMessages(messages);

    if (stream) {
      Kv kv = Kv.by("content", "- Reply to your question.\r\n\r\n");
      SsePacket packet = new SsePacket(AiChatEventName.delta, JsonUtils.toJson(kv));
      Tio.bSend(channelContext, packet);

      chatRequestVo.setStream(true);
      Callback callback = chatStreamCommonService.getCallback(channelContext, sessionId, start);
      Call call = OpenAiClient.chatCompletions(chatRequestVo, callback);
      log.info("add call:{}", sessionId);
      ChatStreamCallCan.put(sessionId, call);
      return null;

    } else {
      ChatResponseVo chatCompletions = OpenAiClient.chatCompletions(chatRequestVo);
      String content = chatCompletions.getChoices().get(0).getMessage().getContent();
      return content;
    }

  }
}

6. LLmAiChatSearchService(搜索模型处理服务)

负责使用搜索模型(如 Perplexity)处理用户的提问,并返回系统回答。

package com.litongjava.llm.service;

import java.util.ArrayList;
import java.util.List;

import com.jfinal.kit.Kv;
import com.litongjava.jfinal.aop.Aop;
import com.litongjava.llm.can.ChatStreamCallCan;
import com.litongjava.llm.consts.AiChatEventName;
import com.litongjava.llm.vo.AiChatResponseVo;
import com.litongjava.llm.vo.ChatMessagesVo;
import com.litongjava.openai.chat.ChatMessage;
import com.litongjava.openai.chat.ChatResponseVo;
import com.litongjava.openai.chat.OpenAiChatRequestVo;
import com.litongjava.openai.client.OpenAiClient;
import com.litongjava.openai.consts.PerplexityConstants;
import com.litongjava.openai.consts.PerplexityModels;
import com.litongjava.tio.core.ChannelContext;
import com.litongjava.tio.core.Tio;
import com.litongjava.tio.http.common.sse.SsePacket;
import com.litongjava.tio.utils.environment.EnvUtils;
import com.litongjava.tio.utils.json.JsonUtils;
import com.litongjava.tio.utils.snowflake.SnowflakeIdUtils;

import lombok.extern.slf4j.Slf4j;
import okhttp3.Call;
import okhttp3.Callback;

@Slf4j
public class LLmAiChatSearchService {

  /**
   * 使用搜索模型处理消息
   *
   * @param schoolId        学校ID
   * @param sessionId       会话ID
   * @param chatMessages    消息对象
   * @param isFirstQuestion 是否为首次提问
   * @param history  关联消息
   * @param stream          是否使用流式响应
   * @param channelContext  通道上下文
   * @param aiChatResponseVo
   * @return 响应对象
   */
  public AiChatResponseVo processMessageBySearchModel(Long schoolId, Long sesionId, ChatMessagesVo chatMessages, boolean isFirstQuestion,
      //
      List<ChatMessage> history, Boolean stream, ChannelContext channelContext, AiChatResponseVo aiChatResponseVo) {

    // 发送搜索进度
    if (stream && channelContext != null) {
      Kv kv = Kv.by("content", "- Searching... \r\n");
      SsePacket packet = new SsePacket(AiChatEventName.progress, JsonUtils.toJson(kv));
      Tio.bSend(channelContext, packet);
    }

    List<ChatMessage> messages = chatMessages.getMessages();
    if (messages == null) {
      messages = new ArrayList<>();
    }

    // 添加初始提示词
    String textQuestion = chatMessages.getTextQuestion();
    String initPrompt = Aop.get(SearchPromptService.class).index(schoolId, textQuestion, stream, channelContext);
    messages.add(0, new ChatMessage("system", initPrompt));
    //添加历史
    messages.addAll(history);
    // 添加用户问题
    messages.add(new ChatMessage("user", textQuestion));
    if (stream) {
      SsePacket packet = new SsePacket(AiChatEventName.input, JsonUtils.toJson(history));
      Tio.bSend(channelContext, packet);
    }

    OpenAiChatRequestVo chatRequestVo = new OpenAiChatRequestVo().setModel(PerplexityModels.llama_3_1_sonar_large_128k_online)
        //
        .setMessages(messages).setMax_tokens(3000);

    log.info("chatRequestVo:{}", JsonUtils.toJson(chatRequestVo));
    String pplApiKey = EnvUtils.get("PERPLEXITY_API_KEY");
    if (stream) {
      // 发送回复提示
      Kv kv = Kv.by("content", "- Reply to your question.\r\n\r\n");
      SsePacket replyPacket = new SsePacket(AiChatEventName.delta, JsonUtils.toJson(kv));
      Tio.bSend(channelContext, replyPacket);

      chatRequestVo.setStream(true);
      long start = System.currentTimeMillis();

      Callback callback = Aop.get(ChatStreamCommonService.class).getCallback(channelContext, sesionId, start);
      Call call = OpenAiClient.chatCompletions(PerplexityConstants.server_url, pplApiKey, chatRequestVo, callback);
      ChatStreamCallCan.put(sesionId, call);
      return null;
    } else {
      ChatResponseVo chatCompletions = OpenAiClient.chatCompletions(PerplexityConstants.server_url, pplApiKey, chatRequestVo);
      List<String> citations = chatCompletions.getCitations();
      String answerContent = chatCompletions.getChoices().get(0).getMessage().getContent();
      long answerId = SnowflakeIdUtils.id();
      Aop.get(LlmChatHistoryService.class).saveAssistant(answerId, sesionId, answerContent);
      aiChatResponseVo.setContent(answerContent);
      aiChatResponseVo.setAnswerId(answerId);
      aiChatResponseVo.setCition(citations);
      return aiChatResponseVo;
    }
  }
}

7. ChatStreamCommonService(聊天流服务)

负责管理聊天流的回调和响应处理,确保流式数据的正确发送和连接的管理。

package com.litongjava.llm.service;

import java.io.IOException;
import java.util.List;

import com.jfinal.kit.Kv;
import com.litongjava.db.TableResult;
import com.litongjava.jfinal.aop.Aop;
import com.litongjava.llm.can.ChatStreamCallCan;
import com.litongjava.llm.consts.AiChatEventName;
import com.litongjava.openai.chat.ChatResponseVo;
import com.litongjava.openai.chat.Choice;
import com.litongjava.openai.chat.Delta;
import com.litongjava.openai.chat.OpenAiChatRequestVo;
import com.litongjava.openai.client.OpenAiClient;
import com.litongjava.tio.core.ChannelContext;
import com.litongjava.tio.core.Tio;
import com.litongjava.tio.http.common.sse.SsePacket;
import com.litongjava.tio.http.server.util.SseEmitter;
import com.litongjava.tio.utils.json.FastJson2Utils;
import com.litongjava.tio.utils.json.JsonUtils;
import com.litongjava.tio.utils.snowflake.SnowflakeIdUtils;

import lombok.extern.slf4j.Slf4j;
import okhttp3.Call;
import okhttp3.Callback;
import okhttp3.Response;
import okhttp3.ResponseBody;
import okio.BufferedSource;

@Slf4j
public class ChatStreamCommonService {

  /**
   * 启动聊天流
   *
   * @param chatRequestVo  聊天请求对象
   * @param chatId        会话ID
   * @param channelContext 通道上下文
   * @param start         开始时间
   */
  public void stream(OpenAiChatRequestVo chatRequestVo, Long chatId, ChannelContext channelContext, long start) {
    Call call = OpenAiClient.chatCompletions(chatRequestVo, getCallback(channelContext, chatId, start));
    ChatStreamCallCan.put(chatId, call);
  }

  /**
   * 获取回调对象
   *
   * @param channelContext 通道上下文
   * @param chatId         会话ID
   * @param start          开始时间
   * @return 回调对象
   */
  public Callback getCallback(ChannelContext channelContext, Long chatId, long start) {
    return new Callback() {
      @Override
      public void onResponse(Call call, Response response) throws IOException {
        if (!response.isSuccessful()) {
          SsePacket packet = new SsePacket(AiChatEventName.progress, "Chat model response an unsuccessful message:" + response.body().string());
          Tio.bSend(channelContext, packet);
        }

        try (ResponseBody responseBody = response.body()) {
          if (responseBody == null) {
            String message = "response body is null";
            log.error(message);
            SsePacket ssePacket = new SsePacket(AiChatEventName.progress, message);
            Tio.bSend(channelContext, ssePacket);
            return;
          }
          StringBuffer completionContent = onChatGptResponseSuccess(channelContext, responseBody, start);

          if (completionContent != null && !completionContent.toString().isEmpty()) {
            long answerId = SnowflakeIdUtils.id();
            TableResult<Kv> tr = Aop.get(LlmChatHistoryService.class).saveAssistant(answerId, chatId, completionContent.toString());
            if (tr.getCode() != 1) {
              log.error("Failed to save assistant answer: {}", tr);
            } else {
              Kv kv = Kv.by("answer_id", answerId);
              SsePacket packet = new SsePacket(AiChatEventName.message_id, JsonUtils.toJson(kv));
              Tio.bSend(channelContext, packet);
            }
          }
        }
        ChatStreamCallCan.remove(chatId);
        SseEmitter.closeSeeConnection(channelContext);
      }

      @Override
      public void onFailure(Call call, IOException e) {
        SsePacket packet = new SsePacket(AiChatEventName.progress, "error: " + e.getMessage());
        Tio.bSend(channelContext, packet);
        ChatStreamCallCan.remove(chatId);
        SseEmitter.closeSeeConnection(channelContext);
      }
    };
  }

  /**
   * 处理ChatGPT成功响应
   *
   * @param channelContext 通道上下文
   * @param responseBody    响应体
   * @return 完整内容
   * @throws IOException
   */
  public StringBuffer onChatGptResponseSuccess(ChannelContext channelContext, ResponseBody responseBody, Long start) throws IOException {
    StringBuffer completionContent = new StringBuffer();
    BufferedSource source = responseBody.source();
    String line;
    boolean sentCitations = false;
    while ((line = source.readUtf8Line()) != null) {
      if (line.length() < 1) {
        continue;
      }
      // 处理数据行
      if (line.length() > 6) {
        String data = line.substring(6);
        if (data.endsWith("}")) {
          ChatResponseVo chatResponse = FastJson2Utils.parse(data, ChatResponseVo.class);
          List<String> citations = chatResponse.getCitations();
          if (citations != null && !sentCitations) {
            SsePacket ssePacket = new SsePacket(AiChatEventName.citations, JsonUtils.toJson(citations));
            Tio.bSend(channelContext, ssePacket);
            sentCitations = true;
          }
          List<Choice> choices = chatResponse.getChoices();
          if (!choices.isEmpty()) {
            Delta delta = choices.get(0).getDelta();
            String part = delta.getContent();
            if (part != null && !part.isEmpty()) {
              completionContent.append(part);
              SsePacket ssePacket = new SsePacket(AiChatEventName.delta, JsonUtils.toJson(delta));
              Tio.bSend(channelContext, ssePacket);
            }
          }
        } else {
          log.info("Data does not end with }:{}", line);
        }
      }
    }

    // 关闭连接
    long end = System.currentTimeMillis();
    log.info("finish llm in {} (ms)", (end - start));
    return completionContent;
  }
}

总结

本文档详细介绍了校园领域搜索问答系统中智能问答功能模块的设计与实现。通过定义清晰的 API 接口、设计合理的控制器和服务层代码,并对关键服务类进行了优化,该模块能够有效地接收用户提问、校验会话合法性、重写问题、生成提示词并调用大模型进行推理,管理历史记录以及控制推理过程。未来,可以进一步扩展智能问答功能,例如集成更多大模型、优化意图识别算法、增强多轮对话能力,以及与其他系统模块的深度集成,以提升系统的整体用户体验和功能丰富性。

Edit this page
Last Updated:
Contributors: Tong Li
Prev
意图识别与生成提示词
Next
文件上传与解析文档