Tio Boot DocsTio Boot Docs
Home
  • java-db
  • api-table
  • mysql
  • postgresql
  • oceanbase
  • Enjoy
  • Tio Boot Admin
  • ai_agent
  • translator
  • knowlege_base
  • ai-search
  • 案例
Abount
  • Github
  • Gitee
Home
  • java-db
  • api-table
  • mysql
  • postgresql
  • oceanbase
  • Enjoy
  • Tio Boot Admin
  • ai_agent
  • translator
  • knowlege_base
  • ai-search
  • 案例
Abount
  • Github
  • Gitee
  • 01_tio-boot 简介

    • tio-boot:新一代高性能 Java Web 开发框架
    • tio-boot 入门示例
    • Tio-Boot 配置 : 现代化的配置方案
    • tio-boot 整合 Logback
    • tio-boot 整合 hotswap-classloader 实现热加载
    • 自行编译 tio-boot
    • 最新版本
    • 开发规范
  • 02_部署

    • 使用 Maven Profile 实现分环境打包 tio-boot 项目
    • Maven 项目配置详解:依赖与 Profiles 配置
    • tio-boot 打包成 FatJar
    • 使用 GraalVM 构建 tio-boot Native 程序
    • 使用 Docker 部署 tio-boot
    • 部署到 Fly.io
    • 部署到 AWS Lambda
    • 到阿里云云函数
    • 使用 Deploy 工具部署
    • 使用Systemctl启动项目
    • 使用 Jenkins 部署 Tio-Boot 项目
    • 使用 Nginx 反向代理 Tio-Boot
    • 使用 Supervisor 管理 Java 应用
    • 已过时
    • 胖包与瘦包的打包与部署
  • 03_配置

    • 配置参数
    • 服务器监听器
    • 内置缓存系统 AbsCache
    • 使用 Redis 作为内部 Cache
    • 静态文件处理器
    • 基于域名的静态资源隔离
    • DecodeExceptionHandler
    • 开启虚拟线程(Virtual Thread)
    • 框架级错误通知
  • 04_原理

    • 生命周期
    • 请求处理流程
    • 重要的类
  • 05_json

    • Json
    • 接受 JSON 和响应 JSON
    • 响应实体类
  • 06_web

    • 概述
    • 接收请求参数
    • 接收日期参数
    • 接收数组参数
    • 返回字符串
    • 返回文本数据
    • 返回网页
    • 请求和响应字节
    • 文件上传
    • 文件下载
    • 返回视频文件并支持断点续传
    • http Session
    • Cookie
    • HttpRequest
    • HttpResponse
    • Resps
    • RespBodyVo
    • Controller拦截器
    • 请求拦截器
    • LoggingInterceptor
    • 全局异常处理器
    • 异步处理
    • 动态 返回 CSS 实现
    • 返回图片
    • 跨域
    • 添加 Controller
    • Transfer-Encoding: chunked 实时音频播放
    • Server-Sent Events (SSE)
    • handler入门
    • 返回 multipart
    • 待定
    • 自定义 Handler 转发请求
    • 使用 HttpForwardHandler 转发所有请求
    • 常用工具类
    • HTTP Basic 认证
    • Http响应加密
    • 使用零拷贝发送大文件
    • 分片上传
    • 接口访问统计
    • 接口请求和响应数据记录
    • WebJars
    • JProtobuf
    • 测速
    • Gzip Bomb:使用压缩炸弹防御恶意爬虫
  • 07_validate

    • 数据紧校验规范
    • 参数校验
  • 08_websocket

    • 使用 tio-boot 搭建 WebSocket 服务
    • WebSocket 聊天室项目示例
  • 09_java-db

    • java‑db
    • 操作数据库入门示例
    • SQL 模板 (SqlTemplates)
    • 数据源配置与使用
    • ActiveRecord
    • Db 工具类
    • 批量操作
    • Model
    • Model生成器
    • 注解
    • 异常处理
    • 数据库事务处理
    • Cache 缓存
    • Dialect 多数据库支持
    • 表关联操作
    • 复合主键
    • Oracle 支持
    • Enjoy SQL 模板
    • 整合 Enjoy 模板最佳实践
    • 多数据源支持
    • 独立使用 ActiveRecord
    • 调用存储过程
    • java-db 整合 Guava 的 Striped 锁优化
    • 生成 SQL
    • 通过实体类操作数据库
    • java-db 读写分离
    • Spring Boot 整合 Java-DB
    • like 查询
    • 常用操作示例
    • Druid 监控集成指南
    • SQL 统计
  • 10_api-table

    • ApiTable 概述
    • 使用 ApiTable 连接 SQLite
    • 使用 ApiTable 连接 Mysql
    • 使用 ApiTable 连接 Postgres
    • 使用 ApiTable 连接 TDEngine
    • 使用 api-table 连接 oracle
    • 使用 api-table 连接 mysql and tdengine 多数据源
    • EasyExcel 导出
    • EasyExcel 导入
    • 预留
    • 预留
    • ApiTable 实现增删改查
    • 数组类型
    • 单独使用 ApiTable
    • TQL(Table SQL)前端输入规范
  • 11_aop

    • JFinal-aop
    • Aop 工具类
    • 配置
    • 配置
    • 独立使用 JFinal Aop
    • @AImport
    • 自定义注解拦截器
    • 原理解析
  • 12_cache

    • Caffine
    • Jedis-redis
    • hutool RedisDS
    • Redisson
    • Caffeine and redis
    • CacheUtils 工具类
    • 使用 CacheUtils 整合 caffeine 和 redis 实现的两级缓存
    • 使用 java-db 整合 ehcache
    • 使用 java-db 整合 redis
    • Java DB Redis 相关 Api
    • redis 使用示例
  • 13_认证和权限

    • FixedTokenInterceptor
    • TokenManager
    • 数据表
    • 匿名登录
    • 注册和登录
    • 个人中心
    • 重置密码
    • Google 登录
    • 短信登录
    • 移动端微信登录
    • 移动端重置密码
    • 微信登录
    • 移动端微信登录
    • 权限校验注解
    • Sa-Token
    • sa-token 登录注册
    • StpUtil.isLogin() 源码解析
  • 14_i18n

    • i18n
  • 15_enjoy

    • tio-boot 整合 Enjoy 模版引擎文档
    • Tio-Boot 整合 Java-DB 与 Enjoy 模板引擎示例
    • 引擎配置
    • 表达式
    • 指令
    • 注释
    • 原样输出
    • Shared Method 扩展
    • Shared Object 扩展
    • Extension Method 扩展
    • Spring boot 整合
    • 独立使用 Enjoy
    • tio-boot enjoy 自定义指令 localeDate
    • PromptEngine
    • Enjoy 入门示例-擎渲染大模型请求体
    • Tio Boot + Enjoy:分页与 SEO 实战指南
    • Tio Boot + Enjoy:分页与 SEO 实战指南
    • Tio Boot + Enjoy:分页与 SEO 实战指南
  • 16_定时任务

    • Quartz 定时任务集成指南
    • 分布式定时任务 xxl-jb
    • cron4j 使用指南
  • 17_tests

    • TioBootTest 类
  • 18_tio

    • TioBootServer
    • 独立端口启动 TCP 服务器
    • 内置 TCP 处理器
    • 独立启动 UDPServer
    • 使用内置 UDPServer
    • t-io 消息处理流程
    • tio-运行原理详解
    • TioConfig
    • ChannelContext
    • Tio 工具类
    • 业务数据绑定
    • 业务数据解绑
    • 发送数据
    • 关闭连接
    • Packet
    • 监控: 心跳
    • 监控: 客户端的流量数据
    • 监控: 单条 TCP 连接的流量数据
    • 监控: 端口的流量数据
    • 单条通道统计: ChannelStat
    • 所有通道统计: GroupStat
    • 资源共享
    • 成员排序
    • SSL
    • DecodeRunnable
    • 使用 AsynchronousSocketChannel 响应数据
    • 拉黑 IP
    • 深入解析 Tio 源码:构建高性能 Java 网络应用
  • 19_aio

    • ByteBuffer
    • AIO HTTP 服务器
    • 自定义和线程池和池化 ByteBuffer
    • AioHttpServer 应用示例 IP 属地查询
    • 手写 AIO Http 服务器
  • 20_netty

    • Netty TCP Server
    • Netty Web Socket Server
    • 使用 protoc 生成 Java 包文件
    • Netty WebSocket Server 二进制数据传输
    • Netty 组件详解
  • 21_netty-boot

    • Netty-Boot
    • 原理解析
    • 整合 Hot Reload
    • 整合 数据库
    • 整合 Redis
    • 整合 Elasticsearch
    • 整合 Dubbo
    • Listener
    • 文件上传
    • 拦截器
    • Spring Boot 整合 Netty-Boot
    • SSL 配置指南
    • ChannelInitializer
    • Reserve
  • 22_MQ

    • Mica-mqtt
    • EMQX
    • Disruptor
  • 23_tio-utils

    • tio-utils
    • HttpUtils
    • Notification
    • Email
    • JSON
    • File
    • Base64
    • 上传和下载
    • Http
    • Telegram
    • RsaUtils
    • EnvUtils 配置工具
    • 系统监控
    • 线程
    • 虚拟线程
    • 毫秒并发 ID (MCID) 生成方案
  • 24_tio-http-server

    • 使用 Tio-Http-Server 搭建简单的 HTTP 服务
    • tio-boot 添加 HttpRequestHandler
    • 在 Android 上使用 tio-boot 运行 HTTP 服务
    • tio-http-server-native
    • handler 常用操作
  • 25_tio-websocket

    • WebSocket 服务器
    • WebSocket Client
    • TCP数据转发
  • 26_tio-im

    • 通讯协议文档
    • ChatPacket.proto 文档
    • java protobuf
    • 数据表设计
    • 创建工程
    • 登录
    • 历史消息
    • 发消息
  • 27_mybatis

    • Tio-Boot 整合 MyBatis
    • 使用配置类方式整合 MyBatis
    • 整合数据源
    • 使用 mybatis-plus 整合 tdengine
    • 整合 mybatis-plus
  • 28_mongodb

    • tio-boot 使用 mongo-java-driver 操作 mongodb
  • 29_elastic-search

    • Elasticsearch
    • JavaDB 整合 ElasticSearch
    • Elastic 工具类使用指南
    • Elastic-search 注意事项
    • ES 课程示例文档
  • 30_magic-script

    • tio-boot 与 magic-script 集成指南
  • 31_groovy

    • tio-boot 整合 Groovy
  • 32_firebase

    • 整合 google firebase
    • Firebase Storage
    • Firebase Authentication
    • 使用 Firebase Admin SDK 进行匿名用户管理与自定义状态标记
    • 导出用户
    • 注册回调
    • 登录注册
  • 33_文件存储

    • 文件上传数据表
    • 本地存储
    • 存储文件到 亚马逊 S3
    • 存储文件到 腾讯 COS
    • 存储文件到 阿里云 OSS
  • 34_spider

    • jsoup
    • 爬取 z-lib.io 数据
    • 整合 WebMagic
    • WebMagic 示例:爬取学校课程数据
    • Playwright
    • Flexmark (Markdown 处理器)
    • tio-boot 整合 Playwright
    • 缓存网页数据
  • 36_integration_thirty_party

    • 整合 okhttp
    • 整合 GrpahQL
    • 集成 Mailjet
    • 整合 ip2region
    • 整合 GeoLite 离线库
    • 整合 Lark 机器人指南
    • 集成 Lark Mail 实现邮件发送
    • Thymeleaf
    • Swagger
    • Clerk 验证
  • 37_dubbo

    • 概述
    • dubbo 2.6.0
    • dubbo 2.6.0 调用过程
    • dubbo 3.2.0
  • 38_spring

    • Spring Boot Web 整合 Tio Boot
    • spring-boot-starter-webflux 整合 tio-boot
    • tio-boot 整合 spring-boot-starter
    • Tio Boot 整合 Spring Boot Starter db
    • Tio Boot 整合 Spring Boot Starter Data Redis 指南
  • 39_spring-cloud

    • tio-boot spring-cloud
  • 40_quarkus

    • Quarkus(无 HTTP)整合 tio-boot(有 HTTP)
    • tio-boot + Quarkus + Hibernate ORM Panache
  • 41_postgresql

    • PostgreSQL 安装
    • PostgreSQL 主键自增
    • PostgreSQL 日期类型
    • Postgresql 金融类型
    • PostgreSQL 数组类型
    • 索引
    • PostgreSQL 查询优化
    • 获取字段类型
    • PostgreSQL 全文检索
    • PostgreSQL 向量
    • PostgreSQL 优化向量查询
    • PostgreSQL 其他
  • 42_mysql

    • 使用 Docker 运行 MySQL
    • 常见问题
  • 43_oceanbase

    • 快速体验 OceanBase 社区版
    • 快速上手 OceanBase 数据库单机部署与管理
    • 诊断集群性能
    • 优化 SQL 性能指南
    • 待定
  • 49_jooq

    • 使用配置类方式整合 jOOQ
    • tio-boot + jOOQ 事务管理
    • 批量操作与性能优化
    • 代码生成(可选)与类型安全升级
    • JSONB、Upsert、窗口函数实战
    • 整合agroal
  • 50_media

    • JAVE 提取视频中的声音
    • Jave 提取视频中的图片
    • 待定
  • 51_asr

    • Whisper-JNI
  • 54_native-media

    • java-native-media
    • JNI 入门示例
    • mp3 拆分
    • mp4 转 mp3
    • 使用 libmp3lame 实现高质量 MP3 编码
    • Linux 编译
    • macOS 编译
    • 从 JAR 包中加载本地库文件
    • 支持的音频和视频格式
    • 任意格式转为 mp3
    • 通用格式转换
    • 通用格式拆分
    • 视频合并
    • VideoToHLS
    • split_video_to_hls 支持其他语言
    • 持久化 HLS 会话
    • 获取视频长度
    • 保存视频的最后一帧
    • 添加水印
    • linux版本
  • 55_cv

    • 使用 Java 运行 YOLOv8 ONNX 模型进行目标检测
    • tio-boot整合yolo
    • ONNX Runtime 推理说明
  • 58_telegram4j

    • 数据库设计
    • 基于 HTTP 协议开发 Telegram 翻译机器人
    • 基于 MTProto 协议开发 Telegram 翻译机器人
    • 过滤旧消息
    • 保存机器人消息
    • 定时推送
    • 增加命令菜单
    • 使用 telegram-Client
    • 使用自定义 StoreLayout
    • 延迟测试
    • Reactor 错误处理
    • Telegram4J 常见错误处理指南
  • 59_telegram-bots

    • TelegramBots 入门指南
    • 使用工具库 telegram-bot-base 开发翻译机器人
  • 60_LLM

    • 简介
    • 流式生成
    • 图片多模态输入
    • 协议自动转换 Google Gemini示例
    • 请求记录
    • 限流和错误处理
    • 整合Gemini realtime模型
    • Voice Agent 前端接入接口文档
    • 整合千问realtime模型
    • 增强检索(RAG)
    • 搜索+AI
    • AI 问答
    • 连接代码执行器
  • 61_ai_agent

    • 数据库设计
    • 示例问题管理
    • 会话管理
    • 历史记录
    • Perplexity API
    • 意图识别
    • 智能问答
    • 文件上传与解析文档
    • 翻译
    • 名人搜索功能实现
    • Ai studio gemini youbue 问答使用说明
    • 自建 YouTube 字幕问答系统
    • 自建 获取 youtube 字幕服务
    • 使用 OpenAI ASR 实现语音识别接口(Java 后端示例)
    • 定向搜索
    • 16
    • 17
    • 18
    • 在 tio-boot 应用中整合 ai-agent
    • 16
  • 63_knowlege_base

    • 数据库设计
    • 用户登录实现
    • 模型管理
    • 知识库管理
    • 文档拆分
    • 片段向量
    • 命中测试
    • 文档管理
    • 片段管理
    • 问题管理
    • 应用管理
    • 向量检索
    • 推理问答
    • 问答模块
    • 统计分析
    • 用户管理
    • api 管理
    • 存储文件到 S3
    • 文档解析优化
    • 片段汇总
    • 段落分块与检索
    • 多文档解析
    • 对话日志
    • 检索性能优化
    • Milvus
    • 文档解析方案和费用对比
    • 离线运行向量模型
  • 64_ai-search

    • ai-search 项目简介
    • ai-search 数据库文档
    • ai-search SearxNG 搜索引擎
    • ai-search Jina Reader API
    • ai-search Jina Search API
    • ai-search 搜索、重排与读取内容
    • ai-search PDF 文件处理
    • ai-search 推理问答
    • Google Custom Search JSON API
    • ai-search 意图识别
    • ai-search 问题重写
    • ai-search 系统 API 接口 WebSocket 版本
    • ai-search 搜索代码实现 WebSocket 版本
    • ai-search 生成建议问
    • ai-search 生成问题标题
    • ai-search 历史记录
    • Discover API
    • 翻译
    • Tavily Search API 文档
    • 对接 Tavily Search
    • 火山引擎 DeepSeek
    • 对接 火山引擎 DeepSeek
    • ai-search 搜索代码实现 SSE 版本
    • jar 包部署
    • Docker 部署
    • 爬取一个静态网站的所有数据
    • 网页数据预处理
    • 网页数据检索与问答流程整合
  • 65_ai-coding

    • Cline 提示词
    • Cline 提示词-中文版本
  • 66_java-uni-ai-server

    • 语音合成系统
    • Fish.audio TTS 接口说明文档与 Java 客户端封装
    • 整合 fishaudio 到 java-uni-ai-server 项目
    • 待定
  • 67_java-llm-proxy

    • 使用tio-boot搭建多模型LLM代理服务
  • 68_java-kit-server

    • Java 执行 python 代码
    • 通过大模型执行 Python 代码
    • 执行 Python (Manim) 代码
    • 待定
    • 待定
    • 待定
    • 视频下载增加水印说明文档
  • 69_ai-brower

    • AI Browser:基于用户指令的浏览器自动化系统
    • 提示词
    • dom构建- buildDomTree.js
    • dom构建- 将网页可点击元素提取与可视化
    • 提取网内容
    • 启动浏览器
    • 操作浏览器指令
  • 70_tio-boot-admin

    • 入门指南
    • 初始化数据
    • token 存储
    • 与前端集成
    • 文件上传
    • 网络请求
    • 多图片管理
    • 单图片管理(只读模式)
    • 布尔值管理
    • 字段联动
    • Word 管理
    • PDF 管理
    • 文章管理
    • 富文本编辑器
  • 73_tio-mail-wing

    • tio-mail-wing简介
    • 任务1:实现POP3系统
    • 使用 getmail 验证 tio-mail-wing POP3 服务
    • 任务2:实现 SMTP 服务
    • 数据库初始化文档
    • 用户管理
    • 邮件管理
    • 任务3:实现 SMTP 服务 数据库版本
    • 任务4:实现 POP3 服务(数据库版本)
    • IMAP 协议
    • 拉取多封邮件
    • 任务5:实现 IMAP 服务(数据库版本)
    • IMAP实现讲解
    • IMAP 手动测试脚本
    • IMAP 认证机制
    • 主动推送
  • 74_tio-mcp-server

    • 实现 MCP Server 开发指南
  • 75_tio-sip

    • SIP Server 第一版原理说明
    • SIP Server 第一版实战
    • 一、Windows 平台测试
    • SIP Server 第二版实战
    • SIP Server 第三版实战
    • 性能优化
    • 基于 MediaProcessor 对接 Realtime 模型说明
    • 对接大语言模型
    • 支持 G722 宽带语音
    • G722编码和解码
    • 会话级采样率转换
    • /zh/75_tio-sip/12.html
    • 增加 9196 回声测试分机
    • 语音系统链路说明
    • 一、Gemini Realtime 的打断机制
  • 76_manim

    • Teach me anything - 基于大语言的知识点讲解视频生成系统
    • Manim 开发环境搭建
    • 生成场景提示词
    • 生成代码
    • 完整脚本示例
    • TTS服务端
    • 废弃
    • 废弃
    • 废弃
    • 使用 SSE 流式传输生成进度的实现文档
    • 整合全流程完整文档
    • HLS 动态推流技术文档
    • manim 分场景生成代码
    • 分场景运行代码及流式播放支持
    • 分场景业务端完整实现流程
    • Maiim布局管理器
    • 仅仅生成场景代码
    • 使用 modal 运行 manim 代码
    • Python 使用 Modal GPU 加速渲染
    • Modal 平台 GPU 环境下运行 Manim
    • Modal Manim OpenGL 安装与使用
    • 优化 GPU 加速
    • 生成视频封面流程
    • Java 调用 manim 命令 执行代码 生成封面
    • Manim 图像生成服务客户端文档
    • manim render help
    • 显示 中文公式
    • ManimGL(manimgl)
    • Manim 实战入门:用代码创造数学动画
    • 欢迎
  • 80_性能测试

    • 压力测试 - tio-http-serer
    • 压力测试 - tio-boot
    • 压力测试 - tio-boot-native
    • 压力测试 - netty-boot
    • 性能测试对比
    • TechEmpower FrameworkBenchmarks
    • 压力测试 - tio-boot 12 C 32G
    • HTTP/1.1 Pipelining 性能测试报告
    • tio-boot vs Quarkus 性能对比测试报告
  • 81_tio-boot

    • 简介
    • Swagger 整合到 Tio-Boot 中的指南
    • 待定
    • 待定
    • 高性能网络编程中的 ByteBuffer 分配与回收策略
    • TioBootServerHandler 源码解析
  • 99_案例

    • 封装 IP 查询服务
    • tio-boot 案例 - 全局异常捕获与企业微信群通知
    • tio-boot 案例 - 文件上传和下载
    • tio-boot 案例 - 整合 ant design pro 增删改查
    • tio-boot 案例 - 流失响应
    • tio-boot 案例 - 增强检索
    • tio-boot 案例 - 整合 function call
    • tio-boot 案例 - 定时任务 监控 PostgreSQL、Redis 和 Elasticsearch
    • Tio-Boot 案例:使用 SQLite 整合到登录注册系统
    • tio-boot 案例 - 执行 shell 命令

当用户先提问,模型开始语音回答;在模型语音还没播完时,用户再次说话,希望“插话”或“打断”;但模型没有马上停下当前语音,而是继续把原来的语音输出完,或者至少继续输出一段。这就导致用户和模型同时说话,交互体验像“抢话”。

这个现象通常叫:

  1. barge-in failure 也就是“插话失败”或“打断失败”

可以,这个能力官方文档里是支持的。你现在要补的是两部分:

  1. 服务端取消当前回复
  2. 前端立即停播并清空音频缓冲

阿里云官方文档对 Qwen-Omni Realtime 的说明很明确:

  • Java SDK 里 OmniRealtimeConversation 提供了 cancelResponse(),作用就是“取消正在进行的响应”;如果当前没有可取消的响应,服务端会返回错误。(Aliyun Help Center)
  • 开启 turn_detection 后,回复阶段如果检测到用户开始说话,服务会“立刻停止这一次的回复并转换到输入状态”。文档还说明,即使开启了 turn_detection,你仍然可以主动调用 response_cancel 来打断。(Aliyun Help Center)
  • 官方 realtime 文档示例里,处理打断的方式就是在 input_audio_buffer.speech_started 事件到来时,如果当前正在回复,则调用 response.cancel。(Aliyun Help Center)
  • 阿里云开发者社区给的播放器参考还特别提到:出现打断事件时,要清空编码队列和音频队列,否则本地还会继续播已经缓存的音频;他们的示例把最大打断延迟控制在约 100ms。(Aliyun Developer Community)

你现在这段 QwenOmniRealtimeBridge 已经开了:

.enableTurnDetection(true)

这意味着你已经具备“服务端 VAD 检测用户插话”的基础能力。(Aliyun Help Center) 但你目前在 speech_started 里只是往前端发了一个事件,没有真正执行取消:

case "input_audio_buffer.speech_started":
  sendJson(new WsVoiceAgentResponseMessage("speech_started"));
  break;

所以要支持真正的打断,建议这样改。

后端改法

先加一个“当前是否正在回复”的状态位。

private final AtomicBoolean responding = new AtomicBoolean(false);

然后在事件里维护它:

case "response.created":
  responding.set(true);
  break;

case "response.done":
  responding.set(false);
  sendJson(new WsVoiceAgentResponseMessage("turn_complete"));
  break;

接着在 speech_started 里主动取消当前回复:

case "input_audio_buffer.speech_started":
  sendJson(new WsVoiceAgentResponseMessage("speech_started"));

  if (responding.get()) {
    try {
      conversation.cancelResponse(); // 关键:主动打断当前回复
      responding.set(false);
      sendJson(new WsVoiceAgentResponseMessage("response_cancelled"));
    } catch (Exception e) {
      log.error("cancelResponse failed", e);
      sendError("cancel_response_failed", e.getMessage());
    }
  }
  break;

如果你想更稳一点,还可以在收到 speech_started 时顺手通知前端丢弃当前播放队列:

sendJson(new WsVoiceAgentResponseMessage("stop_audio_playback"));

为什么只调 cancelResponse() 还不够

因为模型端“停止生成”和浏览器端“停止播放”是两回事。

你的后端已经把一部分 response.audio.delta 转成 PCM 发给前端了:

case "response.audio.delta": {
  String b64 = event.has("delta") ? event.get("delta").getAsString() : "";
  if (StrUtil.notBlank(b64)) {
    byte[] pcm = Base64.getDecoder().decode(b64);
    callback.sendBinary(pcm);
  }
  break;
}

这意味着即使服务端已经停止继续生成,前端播放器仍可能在播放已经收到但还没播完的 PCM。这正是你看到“用户插话了,模型还继续说一小段”的常见原因。这个现象和官方播放器说明是一致的:如果不清空本地队列,打断不会立刻体感生效。(Aliyun Developer Community)

前端要配合做的事

当前端收到:

  • speech_started
  • 或你新增的 stop_audio_playback
  • 或 response_cancelled

时,立刻做这几件事:

  • 停止当前正在播放的音频节点
  • 清空待播放 PCM 队列
  • 丢弃旧 response 残留的音频包
  • 新一轮用户说话开始后,再接收新的模型回复音频

如果前端是“边收边播 + 队列播放”的实现,队列 chunk 越大,打断越慢。官方示例建议音频按约 100ms 一包处理,这样打断延迟更小。(Aliyun Developer Community)

结合你这份代码,最小可行修改

你可以直接把 handleEvent 里的关键部分改成这样:

private final AtomicBoolean responding = new AtomicBoolean(false);

private void handleEvent(JsonObject event) {
  try {
    String type = event.has("type") ? event.get("type").getAsString() : "";

    switch (type) {
      case "session.created":
        sendJson(new WsVoiceAgentResponseMessage("setup_complete"));
        break;

      case "response.created":
        responding.set(true);
        break;

      case "input_audio_buffer.speech_started":
        sendJson(new WsVoiceAgentResponseMessage("speech_started"));

        if (responding.get()) {
          try {
            conversation.cancelResponse();
            responding.set(false);

            sendJson(new WsVoiceAgentResponseMessage("response_cancelled"));
            sendJson(new WsVoiceAgentResponseMessage("stop_audio_playback"));
          } catch (Exception e) {
            log.error("cancelResponse failed", e);
            sendError("cancel_response_failed", e.getMessage());
          }
        }
        break;

      case "input_audio_buffer.speech_stopped":
        sendJson(new WsVoiceAgentResponseMessage("speech_stopped"));
        break;

      case "response.audio.delta": {
        String b64 = event.has("delta") ? event.get("delta").getAsString() : "";
        if (StrUtil.notBlank(b64)) {
          byte[] pcm = Base64.getDecoder().decode(b64);
          callback.sendBinary(pcm);
        }
        break;
      }

      case "response.done":
        responding.set(false);
        sendJson(new WsVoiceAgentResponseMessage("turn_complete"));
        break;

      case "error":
        sendError("remote_error", event.toString());
        break;
    }
  } catch (Exception e) {
    log.error("handleEvent error", e);
    sendError("handle_event_error", e.getMessage());
  }
}

结论

你这个场景要支持“用户说话时立刻打断模型播报”,正确做法是:

  • 保留 enableTurnDetection(true),让服务端能检测插话。(Aliyun Help Center)
  • 在 input_audio_buffer.speech_started 时调用 conversation.cancelResponse(),主动取消当前回复。(Aliyun Help Center)
  • 前端收到打断事件后,立即停止播放并清空本地音频缓冲,否则还会继续播旧 PCM。(Aliyun Developer Community)

如果你愿意,我下一条可以直接给你一版可粘贴的完整 Java 修改版 QwenOmniRealtimeBridge。

Google 的 Gemini Realtime (Live API) 和 Qwen 的机制不太一样。 Gemini 没有 cancelResponse() 这种显式接口,它的打断机制主要依赖 Activity Detection + ActivityHandling,也就是:

当检测到新的用户语音活动时自动打断当前响应。

你现在的代码其实已经接近正确配置,但需要理解它的工作方式和补充一点逻辑。


一、Gemini Realtime 的打断机制

Gemini Live 的打断依赖三个关键配置:

1. VAD(语音活动检测)

你已经配置了:

AutomaticActivityDetection vad = AutomaticActivityDetection.builder()
    .disabled(false)
    .startOfSpeechSensitivity(StartSensitivity.Known.START_SENSITIVITY_HIGH)
    .endOfSpeechSensitivity(EndSensitivity.Known.END_SENSITIVITY_LOW)
    .prefixPaddingMs(100)
    .silenceDurationMs(500)
    .build();

作用:

  • 检测用户何时开始说话
  • 检测用户何时结束说话

2. Turn coverage

.turnCoverage(TurnCoverage.Known.TURN_INCLUDES_ONLY_ACTIVITY)

含义:

只把 用户语音活动 当作一个 turn。


3. Activity handling(关键)

你设置的是:

.activityHandling(ActivityHandling.Known.START_OF_ACTIVITY_INTERRUPTS)

这个配置的含义是:

当检测到新的用户语音活动开始时,中断当前模型响应。

这就是 Gemini 的 barge-in 设置。


二、为什么你仍然看到“模型继续说”

这是 Gemini Realtime 最容易踩的坑。

原因通常是:

模型已经停止生成,但客户端仍然在播放旧音频。

你的代码里:

p.inlineData().ifPresent(blob -> {
  byte[] data = blob.data().orElse(null);
  callback.sendBinary(data);
});

音频是 实时 streaming 出来的。

如果前端:

  • 已经缓存了 200-500ms PCM
  • 或者播放器队列没清空

就会出现:

用户插话 → 模型已停止 → 浏览器还在播放缓存音频

看起来就像:

模型没有被打断

但实际上:

模型已经停止,只是播放器还在播旧 buffer。


三、Gemini 正确的打断实现方式

Gemini 官方推荐的方式是:

当检测到 新的用户输入 时:

  1. 立即停止播放当前音频
  2. 清空播放器队列
  3. 丢弃未播放 PCM
  4. 继续发送新的用户音频

四、你现在代码里缺少的一件事

你没有把 用户说话开始事件通知前端。

Gemini 会通过 input transcription 或 realtime activity 表示用户说话。

你可以在这里触发打断:

sc.inputTranscription().ifPresent(t -> {
  String text = t.text().orElse(null);

  send(new WsVoiceAgentResponseMessage("transcript_in", text));

  // 新增:通知前端打断当前播放
  send(new WsVoiceAgentResponseMessage("speech_started"));

  appendTurnTranscript("user", text);
});

或者更直接:

当收到新的用户音频 chunk 时就通知前端停播。

例如:

public CompletableFuture<Void> sendPcm16k(byte[] pcm16k) {

  // 新增:用户开始说话,通知前端打断
  send(new WsVoiceAgentResponseMessage("speech_started"));

  AsyncSession s = this.session;
  ...
}

五、前端必须做的事情(非常关键)

当前端收到:

speech_started

需要立即:

audioPlayer.stop()
queue.clear()

否则:

即使 Gemini 已经停止生成

浏览器仍会继续播放 PCM。


六、Gemini 和 Qwen 的打断机制差异

模型打断方式
Gemini Live自动打断 (VAD + ActivityHandling)
Qwen Omni手动 cancelResponse
OpenAI Realtime自动 + response.cancel

所以:

Gemini 通常不需要手动 cancel。

只需要:

START_OF_ACTIVITY_INTERRUPTS

七、你的 Gemini 配置其实已经正确

这一行就是关键:

.activityHandling(ActivityHandling.Known.START_OF_ACTIVITY_INTERRUPTS)

只要:

  • VAD 正常
  • 前端清空播放队列

就能实现 真正的 barge-in。


八、Gemini 推荐的 VAD 配置(更适合语音助手)

建议把 silence 调低一点:

.prefixPaddingMs(80)
.silenceDurationMs(300)

效果:

  • 用户插话更快
  • 打断延迟更低

九、一个小优化(很多团队都会加)

如果用户说话时:

暂停向前端发送模型音频

例如:

private volatile boolean userSpeaking = false;

用户开始说话:

userSpeaking = true

模型音频:

if (!userSpeaking) {
   callback.sendBinary(data);
}

十、总结

Gemini Realtime 的打断机制是:

自动打断

依赖配置:

AutomaticActivityDetection
START_OF_ACTIVITY_INTERRUPTS

你代码里:

其实已经配置好了。

但要真正生效,还需要:

1️⃣ 前端 收到 speech_started 后停止播放 2️⃣ 清空 PCM 播放队列 3️⃣ 丢弃旧音频 buffer

否则就会出现:

模型被打断了,但浏览器还在继续播。


如果你愿意,我可以给你一份:

Gemini Realtime 语音助手的完整最佳实践架构(含打断、低延迟、不卡顿)

基本是现在所有 AI 语音助手都在用的结构。

Edit this page
Last Updated: 3/11/26, 5:29 AM
Contributors: litongjava
Prev
语音系统链路说明