Tio Boot DocsTio Boot Docs
Home
  • java-db
  • api-table
  • Enjoy
  • Tio Boot Admin
  • ai_agent
  • translator
  • knowlege_base
  • ai-search
  • 案例
Abount
  • Github
  • Gitee
Home
  • java-db
  • api-table
  • Enjoy
  • Tio Boot Admin
  • ai_agent
  • translator
  • knowlege_base
  • ai-search
  • 案例
Abount
  • Github
  • Gitee
  • 01_tio-boot 简介

    • tio-boot:新一代高性能 Java Web 开发框架
    • tio-boot 入门示例
    • Tio-Boot 配置 : 现代化的配置方案
    • tio-boot 整合 Logback
    • tio-boot 整合 hotswap-classloader 实现热加载
    • 自行编译 tio-boot
    • 最新版本
    • 开发规范
  • 02_部署

    • 使用 Maven Profile 实现分环境打包 tio-boot 项目
    • Maven 项目配置详解:依赖与 Profiles 配置
    • tio-boot 打包成 FastJar
    • 使用 GraalVM 构建 tio-boot Native 程序
    • 使用 Docker 部署 tio-boot
    • 部署到 Fly.io
    • 部署到 AWS Lambda
    • 到阿里云云函数
    • 使用 Deploy 工具部署
    • 胖包与瘦包的打包与部署
    • 使用 Jenkins 部署 Tio-Boot 项目
    • 使用 Nginx 反向代理 Tio-Boot
    • 使用 Supervisor 管理 Java 应用
  • 03_配置

    • 配置参数
    • 服务器监听器
    • 内置缓存系统 AbsCache
    • 使用 Redis 作为内部 Cache
    • 静态文件处理器
    • 基于域名的静态资源隔离
    • DecodeExceptionHandler
  • 04_原理

    • 生命周期
    • 请求处理流程
    • 重要的类
  • 05_json

    • Json
    • 接受 JSON 和响应 JSON
    • 响应实体类
  • 06_web

    • 概述
    • 文件上传
    • 接收请求参数
    • 接收日期参数
    • 接收数组参数
    • 返回字符串
    • 返回文本数据
    • 返回网页
    • 请求和响应字节
    • 文件下载
    • 返回视频文件并支持断点续传
    • http Session
    • Cookie
    • HttpRequest
    • HttpResponse
    • Resps
    • RespBodyVo
    • /zh/06_web/19.html
    • 全局异常处理器
    • 异步
    • 动态 返回 CSS 实现
    • 返回图片
    • Transfer-Encoding: chunked 实时音频播放
    • Server-Sent Events (SSE)
    • 接口访问统计
    • 接口请求和响应数据记录
    • 自定义 Handler 转发请求
    • 使用 HttpForwardHandler 转发所有请求
    • 跨域
    • 添加 Controller
    • 常用工具类
    • HTTP Basic 认证
    • WebJars
    • JProtobuf
  • 07_validate

    • 数据紧校验规范
    • 参数校验
  • 08_websocket

    • 使用 tio-boot 搭建 WebSocket 服务
    • WebSocket 聊天室项目示例
  • 09_java-db

    • java‑db
    • 操作数据库入门示例
    • SQL 模板
    • 数据源配置与使用
    • ActiveRecord
    • Model
    • 生成器与 Model
    • Db 工具类
    • 批量操作
    • 数据库事务处理
    • Cache 缓存
    • Dialect 多数据库支持
    • 表关联操作
    • 复合主键
    • Oracle 支持
    • Enjoy SQL 模板
    • Java-DB 整合 Enjoy 模板最佳实践
    • 多数据源支持
    • 独立使用 ActiveRecord
    • 调用存储过程
    • java-db 整合 Guava 的 Striped 锁优化
    • 生成 SQL
    • 通过实体类操作数据库
    • java-db 读写分离
    • Spring Boot 整合 Java-DB
    • like 查询
    • 常用操作示例
    • Druid 监控集成指南
    • SQL 统计
  • 10_api-table

    • ApiTable 概述
    • 使用 ApiTable 连接 SQLite
    • 使用 ApiTable 连接 Mysql
    • 使用 ApiTable 连接 Postgres
    • 使用 ApiTable 连接 TDEngine
    • 使用 api-table 连接 oracle
    • 使用 api-table 连接 mysql and tdengine 多数据源
    • EasyExcel 导出
    • EasyExcel 导入
    • TQL(Table SQL)前端输入规范
    • ApiTable 实现增删改查
    • 数组类型
    • 单独使用 ApiTable
  • 11_aop

    • JFinal-aop
    • Aop 工具类
    • 配置
    • 配置
    • 独立使用 JFinal Aop
    • @AImport
    • 原理解析
  • 12_cache

    • Caffine
    • Jedis-redis
    • hutool RedisDS
    • Redisson
    • Caffeine and redis
    • CacheUtils 工具类
    • 使用 CacheUtils 整合 caffeine 和 redis 实现的两级缓存
    • 使用 java-db 整合 ehcache
    • 使用 java-db 整合 redis
    • Java DB Redis 相关 Api
    • redis 使用示例
  • 13_认证和权限

    • hutool-JWT
    • FixedTokenInterceptor
    • 使用内置 TokenManager 实现登录
    • 用户系统
    • 重置密码
    • 匿名登录
    • Google 登录
    • 权限校验注解
    • Sa-Token
    • sa-token 登录注册
    • StpUtil.isLogin() 源码解析
    • 短信登录
    • 移动端微信登录实现指南
    • 移动端重置密码
  • 14_i18n

    • i18n
  • 15_enjoy

    • tio-boot 整合 Enjoy 模版引擎文档
    • 引擎配置
    • 表达式
    • 指令
    • 注释
    • 原样输出
    • Shared Method 扩展
    • Shared Object 扩展
    • Extension Method 扩展
    • Spring boot 整合
    • 独立使用 Enjoy
    • tio-boot enjoy 自定义指令 localeDate
    • PromptEngine
    • Enjoy 入门示例-擎渲染大模型请求体
    • Enjoy 使用示例
  • 16_定时任务

    • Quartz 定时任务集成指南
    • 分布式定时任务 xxl-jb
    • cron4j 使用指南
  • 17_tests

    • TioBootTest 类
  • 18_tio

    • TioBootServer
    • tio-core
    • 内置 TCP 处理器
    • 独立启动 UDPServer
    • 使用内置 UDPServer
    • t-io 消息处理流程
    • tio-运行原理详解
    • TioConfig
    • ChannelContext
    • Tio 工具类
    • 业务数据绑定
    • 业务数据解绑
    • 发送数据
    • 关闭连接
    • Packet
    • 监控: 心跳
    • 监控: 客户端的流量数据
    • 监控: 单条 TCP 连接的流量数据
    • 监控: 端口的流量数据
    • 单条通道统计: ChannelStat
    • 所有通道统计: GroupStat
    • 资源共享
    • 成员排序
    • ssl
    • DecodeRunnable
    • 使用 AsynchronousSocketChannel 响应数据
    • 拉黑 IP
    • 深入解析 Tio 源码:构建高性能 Java 网络应用
  • 19_aio

    • ByteBuffer
    • AIO HTTP 服务器
    • 自定义和线程池和池化 ByteBuffer
    • AioHttpServer 应用示例 IP 属地查询
    • 手写 AIO Http 服务器
  • 20_netty

    • Netty TCP Server
    • Netty Web Socket Server
    • 使用 protoc 生成 Java 包文件
    • Netty WebSocket Server 二进制数据传输
    • Netty 组件详解
  • 21_netty-boot

    • Netty-Boot
    • 原理解析
    • 整合 Hot Reload
    • 整合 数据库
    • 整合 Redis
    • 整合 Elasticsearch
    • 整合 Dubbo
    • Listener
    • 文件上传
    • 拦截器
    • Spring Boot 整合 Netty-Boot
    • SSL 配置指南
    • ChannelInitializer
    • Reserve
  • 22_MQ

    • Mica-mqtt
    • EMQX
    • Disruptor
  • 23_tio-utils

    • tio-utils
    • HttpUtils
    • Notification
    • 邮箱
    • JSON
    • 读取文件
    • Base64
    • 上传和下载
    • Http
    • Telegram
    • RsaUtils
    • EnvUtils 使用文档
    • 系统监控
    • 毫秒并发 ID (MCID) 生成方案
  • 24_tio-http-server

    • 使用 Tio-Http-Server 搭建简单的 HTTP 服务
    • tio-boot 添加 HttpRequestHandler
    • 在 Android 上使用 tio-boot 运行 HTTP 服务
    • tio-http-server-native
    • handler 常用操作
  • 25_tio-websocket

    • WebSocket 服务器
    • WebSocket Client
  • 26_tio-im

    • 通讯协议文档
    • ChatPacket.proto 文档
    • java protobuf
    • 数据表设计
    • 创建工程
    • 登录
    • 历史消息
    • 发消息
  • 27_mybatis

    • Tio-Boot 整合 MyBatis
    • 使用配置类方式整合 MyBatis
    • 整合数据源
    • 使用 mybatis-plus 整合 tdengine
    • 整合 mybatis-plus
  • 28_mongodb

    • tio-boot 使用 mongo-java-driver 操作 mongodb
  • 29_elastic-search

    • Elasticsearch
    • JavaDB 整合 ElasticSearch
    • Elastic 工具类使用指南
    • Elastic-search 注意事项
    • ES 课程示例文档
  • 30_magic-script

    • tio-boot 整合 magic-script
  • 31_groovy

    • tio-boot 整合 Groovy
  • 32_firebase

    • 整合 google firebase
    • Firebase Storage
    • Firebase Authentication
    • 使用 Firebase Admin SDK 进行匿名用户管理与自定义状态标记
    • 导出用户
    • 注册回调
    • 登录注册
  • 33_文件存储

    • 文件上传数据表
    • 本地存储
    • 使用 AWS S3 存储文件并整合到 Tio-Boot 项目中
    • 存储文件到 腾讯 COS
  • 34_spider

    • jsoup
    • 爬取 z-lib.io 数据
    • 整合 WebMagic
    • WebMagic 示例:爬取学校课程数据
    • Playwright
    • Flexmark (Markdown 处理器)
    • tio-boot 整合 Playwright
    • 缓存网页数据
  • 36_integration_thirty_party

    • tio-boot 整合 okhttp
    • 整合 GrpahQL
    • 集成 Mailjet
    • 整合 ip2region
    • 整合 GeoLite 离线库
    • 整合 Lark 机器人指南
    • 集成 Lark Mail 实现邮件发送
    • Thymeleaf
    • Swagger
    • Clerk 验证
  • 37_dubbo

    • 概述
    • dubbo 2.6.0
    • dubbo 2.6.0 调用过程
    • dubbo 3.2.0
  • 38_spring

    • Spring Boot Web 整合 Tio Boot
    • spring-boot-starter-webflux 整合 tio-boot
    • Tio Boot 整合 Spring Boot Starter
    • Tio Boot 整合 Spring Boot Starter Data Redis 指南
  • 39_spring-cloud

    • tio-boot spring-cloud
  • 40_mysql

    • 使用 Docker 运行 MySQL
    • /zh/42_mysql/02.html
  • 41_postgresql

    • PostgreSQL 安装
    • PostgreSQL 主键自增
    • PostgreSQL 日期类型
    • Postgresql 金融类型
    • PostgreSQL 数组类型
    • PostgreSQL 全文检索
    • PostgreSQL 查询优化
    • 获取字段类型
    • PostgreSQL 向量
    • PostgreSQL 优化向量查询
    • PostgreSQL 其他
  • 43_oceanbase

    • 快速体验 OceanBase 社区版
    • 快速上手 OceanBase 数据库单机部署与管理
    • 诊断集群性能
    • 优化 SQL 性能指南
    • /zh/43_oceanbase/05.html
  • 50_media

    • JAVE 提取视频中的声音
    • Jave 提取视频中的图片
    • /zh/50_media/03.html
  • 51_asr

    • Whisper-JNI
  • 54_native-media

    • java-native-media
    • JNI 入门示例
    • mp3 拆分
    • mp4 转 mp3
    • 使用 libmp3lame 实现高质量 MP3 编码
    • Linux 编译
    • macOS 编译
    • 从 JAR 包中加载本地库文件
    • 支持的音频和视频格式
    • 任意格式转为 mp3
    • 通用格式转换
    • 通用格式拆分
    • 视频合并
    • VideoToHLS
    • split_video_to_hls 支持其他语言
    • 持久化 HLS 会话
  • 55_telegram4j

    • 数据库设计
    • /zh/55_telegram4j/02.html
    • 基于 MTProto 协议开发 Telegram 翻译机器人
    • 过滤旧消息
    • 保存机器人消息
    • 定时推送
    • 增加命令菜单
    • 使用 telegram-Client
    • 使用自定义 StoreLayout
    • 延迟测试
    • Reactor 错误处理
    • Telegram4J 常见错误处理指南
  • 56_telegram-bots

    • TelegramBots 入门指南
    • 使用工具库 telegram-bot-base 开发翻译机器人
  • 60_LLM

    • 简介
    • AI 问答
    • /zh/60_LLM/03.html
    • /zh/60_LLM/04.html
    • 增强检索(RAG)
    • 结构化数据检索
    • 搜索+AI
    • 集成第三方 API
    • 后置处理
    • 推荐问题生成
    • 连接代码执行器
    • 避免 GPT 混乱
    • /zh/60_LLM/13.html
  • 61_ai_agent

    • 数据库设计
    • 示例问题管理
    • 会话管理
    • 历史记录
    • 对接 Perplexity API
    • 意图识别与生成提示词
    • 智能问答模块设计与实现
    • 文件上传与解析文档
    • 翻译
    • 名人搜索功能实现
    • Ai studio gemini youbue 问答使用说明
    • 自建 YouTube 字幕问答系统
    • 自建 获取 youtube 字幕服务
    • 通用搜索
    • /zh/61_ai_agent/15.html
    • 16
    • 17
    • 18
    • 在 tio-boot 应用中整合 ai-agent
    • 16
  • 62_translator

    • 简介
  • 63_knowlege_base

    • 数据库设计
    • 用户登录实现
    • 模型管理
    • 知识库管理
    • 文档拆分
    • 片段向量
    • 命中测试
    • 文档管理
    • 片段管理
    • 问题管理
    • 应用管理
    • 向量检索
    • 推理问答
    • 问答模块
    • 统计分析
    • 用户管理
    • api 管理
    • 存储文件到 S3
    • 文档解析优化
    • 片段汇总
    • 段落分块与检索
    • 多文档解析
    • 对话日志
    • 检索性能优化
    • Milvus
    • 文档解析方案和费用对比
    • 离线运行向量模型
  • 64_ai-search

    • ai-search 项目简介
    • ai-search 数据库文档
    • ai-search SearxNG 搜索引擎
    • ai-search Jina Reader API
    • ai-search Jina Search API
    • ai-search 搜索、重排与读取内容
    • ai-search PDF 文件处理
    • ai-search 推理问答
    • Google Custom Search JSON API
    • ai-search 意图识别
    • ai-search 问题重写
    • ai-search 系统 API 接口 WebSocket 版本
    • ai-search 搜索代码实现 WebSocket 版本
    • ai-search 生成建议问
    • ai-search 生成问题标题
    • ai-search 历史记录
    • Discover API
    • 翻译
    • Tavily Search API 文档
    • 对接 Tavily Search
    • 火山引擎 DeepSeek
    • 对接 火山引擎 DeepSeek
    • ai-search 搜索代码实现 SSE 版本
    • jar 包部署
    • Docker 部署
    • 爬取一个静态网站的所有数据
    • 网页数据预处理
    • 网页数据检索与问答流程整合
  • 65_java-linux

    • Java 执行 python 代码
    • 通过大模型执行 Python 代码
    • MCP 协议
    • Cline 提示词
    • Cline 提示词-中文版本
  • 66_manim

    • 简介
    • Manim 开发环境搭建
    • 生成场景提示词
    • 生成代码
    • 完整脚本示例
    • 语音合成系统
    • Fish.audio TTS 接口说明文档与 Java 客户端封装
    • 整合 fishaudio 到 java-uni-ai-server 项目
    • 执行 Python (Manim) 代码
    • 使用 SSE 流式传输生成进度的实现文档
    • 整合全流程完整文档
    • HLS 动态推流技术文档
    • manim 分场景生成代码
    • 分场景运行代码及流式播放支持
    • 分场景业务端完整实现流程
    • Maiim布局管理器
    • 仅仅生成场景代码
    • 使用 modal 运行 manim 代码
    • Python 使用 Modal GPU 加速渲染
    • Modal 平台 GPU 环境下运行 Manim
    • Modal Manim OpenGL 安装与使用
    • 优化 GPU 加速
    • 生成视频封面流程
    • Java 调用 manim 命令 执行代码 生成封面
    • Manim 图像生成服务客户端文档
    • manim render help
    • 显示 中文公式
    • manimgl
    • EGL
    • /zh/66_manim/30.html
    • /zh/66_manim/31.html
    • 成本核算
    • /zh/66_manim/33.html
  • 70_tio-boot-admin

    • 入门指南
    • 初始化数据
    • token 存储
    • 与前端集成
    • 文件上传
    • 网络请求
    • 图片管理
    • /zh/70_tio-boot-admin/08.html
    • Word 管理
    • PDF 管理
    • 文章管理
    • 富文本编辑器
  • 71_tio-boot

    • /zh/71_tio-boot/01.html
    • Swagger 整合到 Tio-Boot 中的指南
    • HTTP/1.1 Pipelining 性能测试报告
  • 80_性能测试

    • 压力测试 - tio-http-serer
    • 压力测试 - tio-boot
    • 压力测试 - tio-boot-native
    • 压力测试 - netty-boot
    • 性能测试对比
    • TechEmpower FrameworkBenchmarks
    • 压力测试 - tio-boot 12 C 32G
  • 99_案例

    • 封装 IP 查询服务
    • tio-boot 案例 - 全局异常捕获与企业微信群通知
    • tio-boot 案例 - 文件上传和下载
    • tio-boot 案例 - 整合 ant design pro 增删改查
    • tio-boot 案例 - 流失响应
    • tio-boot 案例 - 增强检索
    • tio-boot 案例 - 整合 function call
    • tio-boot 案例 - 定时任务 监控 PostgreSQL、Redis 和 Elasticsearch
    • Tio-Boot 案例:使用 SQLite 整合到登录注册系统
    • tio-boot 案例 - 执行 shell 命令

VideoToHLS

流程

  1. 使用 native‑media 库将指定的 MP4 文件转换为 HLS 分段,分段时长为 segmentDuration 秒。
  2. 生成的 TS 分段文件将存放在与 hlsPath 相同的目录下(文件名按照 tsPattern 命名,例如 "segment_%03d.ts")。
  3. 将生成的 m3u8 片段添加到 hlsPath 指定的播放列表文件中.

Java

  /**
   * Native method to be implemented by C.
   *
   * The implementation should include:
   * 1. Using the native‑media library to convert the MP4 file specified by inputMp4Path into HLS segments,
   *    with each segment lasting segmentDuration seconds.
   * 2. Naming the generated TS segment files according to tsPattern, and storing them in the same directory
   *    as the playlistUrl file.
   * 3. Generating an m3u8 segment based on the converted TS segment information (including the #EXTINF tag
   *    and the TS file name for each segment).
   * 4. Appending the generated m3u8 segment content to the playlist file specified by playlistUrl (ensure that
   *    the playlist does not contain the #EXT-X-ENDLIST tag, otherwise the append will be ineffective).
   *
   * @param hlsPath   Full path to the playlist file
   * @param inputMp4Path  Path to the input MP4 file
   * @param tsPattern     Naming template for TS segment files (including the directory path)
   * @param segmentDuration Segment duration in seconds
   */
  public static native String splitVideoToHLS(String hlsPath, String inputMp4Path, String tsPattern, int segmentDuration);

说明

  • 路径处理
    通过 new File(hlsPath).getParent() 获取播放列表文件所在的目录,确保生成的 TS 文件都放在相同目录下。

  • TS 文件命名模板
    采用形如 "segment_%03d.ts" 的格式命名 TS 文件,C 语言开发者可根据实际情况对分段文件进行编号与生成。

  • Native 方法
    nativeAppendMp4ToHLS 方法为本地方法,由 C 语言开发者实现。实现时应完成 MP4 转 HLS、TS 文件生成、m3u8 片段生成以及将 m3u8 片段添加到现有播放列表文件中的所有逻辑。

使用

NativeMedia.appendMp4ToHLS(hlsPath, relPath,"segment_%03d.ts",10);
package com.litongjava.linux.service;

import java.io.File;

import org.junit.Test;

import com.litongjava.jfinal.aop.Aop;
import com.litongjava.media.NativeMedia;
import com.litongjava.model.body.RespBodyVo;
import com.litongjava.tio.http.common.UploadFile;
import com.litongjava.tio.utils.hutool.FileUtil;
import com.litongjava.tio.utils.json.JsonUtils;
import com.litongjava.tio.utils.snowflake.SnowflakeIdUtils;

import lombok.extern.slf4j.Slf4j;

@Slf4j
public class HlsServiceTest {
  @Test
  public void test() {
    HlsService hlsService = Aop.get(HlsService.class);
    long sessionId = SnowflakeIdUtils.id();
    String filePath = "G:\\video\\CombinedScene.mp4";
    File file = new File(filePath);
    byte[] bytes = FileUtil.readBytes(file);
    UploadFile uploadFile = new UploadFile(file.getName(), bytes);
    RespBodyVo convert = hlsService.convert(sessionId, uploadFile);
    System.out.println(JsonUtils.toJson(convert));

  }
}
  public RespBodyVo convert(Long sessionId, UploadFile uploadFile) {
    String name = uploadFile.getName();
    String baseName = FilenameUtils.getBaseName(name);
    String subPath = "./data/hls/" + sessionId + "/";

    String relPath = subPath + name;
    File file = new File(relPath);
    file.getParentFile().mkdirs();
    FileUtil.writeBytes(uploadFile.getData(), file);

    String hlsPath = subPath + baseName + ".m3u8";

    String appendMp4ToHLS = NativeMedia.splitVideoToHLS(hlsPath, relPath, subPath + "/" + baseName + "_%03d.ts", 1);
    log.info(appendMp4ToHLS);
    Kv kv = Kv.by("session_id", sessionId);
    return RespBodyVo.ok(kv);
  }
CombinedScene.m3u8
CombinedScene.mp4
CombinedScene_000.ts
CombinedScene_001.ts
....
CombinedScene_067.ts

native_mp4_to_hls.c

#include "com_litongjava_media_NativeMedia.h"
#include <jni.h>
#include <stdio.h>
#include <stdlib.h>
#include <string.h>
#include <stdint.h>

#ifdef _WIN32

#include <windows.h>

#endif

// FFmpeg header files (ensure the FFmpeg development environment is properly configured)
#include <libavformat/avformat.h>
#include <libavutil/avutil.h>
#include <libavutil/opt.h>

/**
 * Helper function: Convert FFmpeg error code to a string
 */
static void print_error(const char *msg, int errnum) {
  char errbuf[128] = {0};
  av_strerror(errnum, errbuf, sizeof(errbuf));
  fprintf(stderr, "%s: %s\n", msg, errbuf);
}

/**
 * JNI method implementation:
 * Java declaration:
 *   public static native String splitVideoToHLS(String playlistUrl, String inputMp4Path, String tsPattern, int segmentDuration);
 *
 * Real implementation steps:
 *   1. Open the input MP4 file and retrieve stream information.
 *   2. Allocate an output AVFormatContext using the "hls" muxer, with the output URL specified as playlistUrl.
 *   3. Set HLS options:
 *         - hls_time: segment duration
 *         - hls_segment_filename: TS segment file naming template (including directory)
 *         - hls_flags=append_list: append if the playlist already exists
 *         - hls_list_size=0: do not limit the playlist length
 *         - hls_playlist_type=event: avoid writing EXT‑X‑ENDLIST to allow future appending
 *   4. Create an output stream for each input stream (using copy mode).
 *   5. Open the output file (if required) and write the header.
 *   6. Read input packets, adjust timestamps, and write to the output to complete the segmentation.
 *   7. Write trailer and release resources.
 *   8. Return a feedback message.
 */
JNIEXPORT jstring JNICALL Java_com_litongjava_media_NativeMedia_splitVideoToHLS(JNIEnv *env, jclass clazz,
                                                                              jstring playlistUrlJ,
                                                                              jstring inputMp4PathJ, jstring tsPatternJ,
                                                                              jint segmentDuration) {

  int ret = 0;
  AVFormatContext *ifmt_ctx = NULL;
  AVFormatContext *ofmt_ctx = NULL;
  AVDictionary *opts = NULL;
  int *stream_mapping = NULL;
  int stream_mapping_size = 0;
  AVPacket pkt;

  // Retrieve JNI string parameters (all in UTF-8 encoding)
  const char *playlistUrl = (*env)->GetStringUTFChars(env, playlistUrlJ, NULL);
  const char *inputMp4Path = (*env)->GetStringUTFChars(env, inputMp4PathJ, NULL);
  const char *tsPattern = (*env)->GetStringUTFChars(env, tsPatternJ, NULL);

  // Check if the playlist file already contains EXT-X-ENDLIST (appending is not allowed)
  {
    FILE *checkFile = NULL;
#ifdef _WIN32
    int size_needed = MultiByteToWideChar(CP_UTF8, 0, playlistUrl, -1, NULL, 0);
    wchar_t *wPlaylistUrl = (wchar_t *) malloc(size_needed * sizeof(wchar_t));
    if (wPlaylistUrl) {
      MultiByteToWideChar(CP_UTF8, 0, playlistUrl, -1, wPlaylistUrl, size_needed);
      checkFile = _wfopen(wPlaylistUrl, L"r");
      free(wPlaylistUrl);
    }
#else
    checkFile = fopen(playlistUrl, "r");
#endif
    if (checkFile) {
      fseek(checkFile, 0, SEEK_END);
      long size = ftell(checkFile);
      fseek(checkFile, 0, SEEK_SET);
      char *content = (char *) malloc(size + 1);
      if (content) {
        fread(content, 1, size, checkFile);
        content[size] = '\0';
        if (strstr(content, "#EXT-X-ENDLIST") != NULL) {
          fclose(checkFile);
          free(content);
          (*env)->ReleaseStringUTFChars(env, playlistUrlJ, playlistUrl);
          (*env)->ReleaseStringUTFChars(env, inputMp4PathJ, inputMp4Path);
          (*env)->ReleaseStringUTFChars(env, tsPatternJ, tsPattern);
          return (*env)->NewStringUTF(env, "Playlist already contains #EXT-X-ENDLIST, cannot append");
        }
        free(content);
      }
      fclose(checkFile);
    }
  }

  // Initialize FFmpeg (newer versions do not require av_register_all)
  // Open the input MP4 file
  if ((ret = avformat_open_input(&ifmt_ctx, inputMp4Path, NULL, NULL)) < 0) {
    print_error("Unable to open input file", ret);
    goto end;
  }
  if ((ret = avformat_find_stream_info(ifmt_ctx, NULL)) < 0) {
    print_error("Unable to retrieve stream info", ret);
    goto end;
  }

  // Allocate output context using the hls muxer, with output URL specified as playlistUrl
  ret = avformat_alloc_output_context2(&ofmt_ctx, NULL, "hls", playlistUrl);
  if (ret < 0 || !ofmt_ctx) {
    print_error("Unable to allocate output context", ret);
    goto end;
  }

  // Set HLS options (to be passed to avformat_write_header)
  {
    char seg_time_str[16] = {0};
    snprintf(seg_time_str, sizeof(seg_time_str), "%d", segmentDuration);
    av_dict_set(&opts, "hls_time", seg_time_str, 0);

    // Use the provided tsPattern as the TS segment file naming template
    av_dict_set(&opts, "hls_segment_filename", tsPattern, 0);

    // Set append mode, unlimited playlist, and event type (to prevent writing EXT-X-ENDLIST)
    av_dict_set(&opts, "hls_flags", "append_list", 0);
    av_dict_set(&opts, "hls_list_size", "0", 0);
    av_dict_set(&opts, "hls_playlist_type", "event", 0);
  }

  // Create an output stream for each input stream (copy mode)
  stream_mapping_size = ifmt_ctx->nb_streams;
  stream_mapping = av_malloc_array(stream_mapping_size, sizeof(int));
  if (!stream_mapping) {
    ret = AVERROR(ENOMEM);
    goto end;
  }
  for (int i = 0, j = 0; i < ifmt_ctx->nb_streams; i++) {
    AVStream *in_stream = ifmt_ctx->streams[i];
    AVCodecParameters *in_codecpar = in_stream->codecpar;
    // Only copy video, audio, or subtitle streams (filter as needed)
    if (in_codecpar->codec_type != AVMEDIA_TYPE_VIDEO &&
        in_codecpar->codec_type != AVMEDIA_TYPE_AUDIO &&
        in_codecpar->codec_type != AVMEDIA_TYPE_SUBTITLE) {
      stream_mapping[i] = -1;
      continue;
    }
    stream_mapping[i] = j++;
    AVStream *out_stream = avformat_new_stream(ofmt_ctx, NULL);
    if (!out_stream) {
      ret = AVERROR_UNKNOWN;
      goto end;
    }
    ret = avcodec_parameters_copy(out_stream->codecpar, in_codecpar);
    if (ret < 0) {
      print_error("Failed to copy codec parameters", ret);
      goto end;
    }
    out_stream->codecpar->codec_tag = 0;
    // Set the time base to that of the input stream (to avoid timestamp errors)
    out_stream->time_base = in_stream->time_base;
  }

  // Open the output file (if required by the output format)
  if (!(ofmt_ctx->oformat->flags & AVFMT_NOFILE)) {
#ifdef _WIN32
    int size_needed = MultiByteToWideChar(CP_UTF8, 0, playlistUrl, -1, NULL, 0);
    wchar_t *wPlaylistUrl = (wchar_t *) malloc(size_needed * sizeof(wchar_t));
    if (wPlaylistUrl) {
      MultiByteToWideChar(CP_UTF8, 0, playlistUrl, -1, wPlaylistUrl, size_needed);
      ret = avio_open(&ofmt_ctx->pb, wPlaylistUrl, AVIO_FLAG_WRITE);
      free(wPlaylistUrl);
    }
#else
    ret = avio_open(&ofmt_ctx->pb, playlistUrl, AVIO_FLAG_WRITE);
#endif
    if (ret < 0) {
      print_error("Unable to open output file", ret);
      goto end;
    }
  }

  // Write the header (the output muxer will generate TS files and update the playlist based on the provided options)
  ret = avformat_write_header(ofmt_ctx, &opts);
  if (ret < 0) {
    print_error("Failed to write header", ret);
    goto end;
  }

  // Start reading packets from the input file and writing them to the output muxer (the hls muxer automatically handles real-time segmentation)
  while (av_read_frame(ifmt_ctx, &pkt) >= 0) {
    if (pkt.stream_index >= ifmt_ctx->nb_streams ||
        stream_mapping[pkt.stream_index] < 0) {
      av_packet_unref(&pkt);
      continue;
    }
    // Retrieve input and output streams
    AVStream *in_stream = ifmt_ctx->streams[pkt.stream_index];
    AVStream *out_stream = ofmt_ctx->streams[stream_mapping[pkt.stream_index]];

    // Convert timestamps
    pkt.pts = av_rescale_q_rnd(pkt.pts, in_stream->time_base, out_stream->time_base,
                               AV_ROUND_NEAR_INF | AV_ROUND_PASS_MINMAX);
    pkt.dts = av_rescale_q_rnd(pkt.dts, in_stream->time_base, out_stream->time_base,
                               AV_ROUND_NEAR_INF | AV_ROUND_PASS_MINMAX);
    pkt.duration = av_rescale_q(pkt.duration, in_stream->time_base, out_stream->time_base);
    pkt.pos = -1;
    pkt.stream_index = stream_mapping[pkt.stream_index];

    ret = av_interleaved_write_frame(ofmt_ctx, &pkt);
    if (ret < 0) {
      print_error("Failed to write packet", ret);
      break;
    }
    av_packet_unref(&pkt);
  }

  // Note: Not calling av_write_trailer will prevent the muxer from writing EXT-X-ENDLIST, thus allowing subsequent appending
  av_write_trailer(ofmt_ctx);
  end:
  if (stream_mapping)
    av_freep(&stream_mapping);
  if (ifmt_ctx)
    avformat_close_input(&ifmt_ctx);
  if (ofmt_ctx) {
    if (!(ofmt_ctx->oformat->flags & AVFMT_NOFILE))
      avio_closep(&ofmt_ctx->pb);
    avformat_free_context(ofmt_ctx);
  }
  av_dict_free(&opts);

  // Release JNI strings
  (*env)->ReleaseStringUTFChars(env, playlistUrlJ, playlistUrl);
  (*env)->ReleaseStringUTFChars(env, inputMp4PathJ, inputMp4Path);
  (*env)->ReleaseStringUTFChars(env, tsPatternJ, tsPattern);

  if (ret < 0) {
    return (*env)->NewStringUTF(env, "HLS segmentation failed");
  } else {
    char resultMsg[256] = {0};
    snprintf(resultMsg, sizeof(resultMsg),
             "HLS segmentation successful: generated new segments and appended to playlist %s", playlistUrl);
    return (*env)->NewStringUTF(env, resultMsg);
  }
}

代码解释

1. 头文件包含与平台适配

  • JNI 与标准库包含
    包含了 JNI、标准 C 库以及 FFmpeg 相关头文件,用于实现 JNI 接口和媒体处理。

    #include "com_litongjava_media_NativeMedia.h"
    #include <jni.h>
    #include <stdio.h>
    #include <stdlib.h>
    #include <string.h>
    #include <stdint.h>
    
  • 平台适配
    对于 Windows 平台,包含了 <windows.h> 以及后续代码中需要使用的宽字符转换函数。

    #ifdef _WIN32
    #include <windows.h>
    #endif
    
  • FFmpeg 头文件
    包含了 FFmpeg 中用于封装格式处理、通用工具函数以及选项设置的头文件。

    #include <libavformat/avformat.h>
    #include <libavutil/avutil.h>
    #include <libavutil/opt.h>
    

2. 辅助函数:print_error

  • 作用
    该函数利用 av_strerror 将 FFmpeg 返回的错误码转换为易读的字符串,并通过 fprintf 将错误信息输出到标准错误流。

  • 实现
    定义一个固定大小的字符数组 errbuf,调用 av_strerror 填充错误描述,然后打印错误提示信息。

    static void print_error(const char *msg, int errnum) {
      char errbuf[128] = {0};
      av_strerror(errnum, errbuf, sizeof(errbuf));
      fprintf(stderr, "%s: %s\n", msg, errbuf);
    }
    

3. JNI 方法 Java_com_litongjava_media_NativeMedia_splitVideoToHLS 的整体流程

  • 函数声明与参数说明
    该 JNI 方法对应 Java 层的声明,用于将 MP4 文件拆分成 HLS 片段。

    • hlsPathJ:播放列表文件路径(或 URL)。
    • inputMp4PathJ:输入 MP4 文件路径。
    • tsPatternJ:TS 片段文件的命名模板(含目录)。
    • segmentDuration:每个 TS 片段的时长。
  • 实现步骤概述

    1. 检查播放列表是否已存在 #EXT-X-ENDLIST 标签,防止添加操作。
    2. 使用 FFmpeg 打开输入文件并获取流信息。
    3. 分配输出上下文,使用 HLS muxer,并配置相应的 HLS 选项。
    4. 为每个有效的输入流创建一个对应的输出流,并复制编解码参数。
    5. 打开输出文件,写入 muxer 头信息。
    6. 逐个读取输入数据包,调整时间戳后写入输出 muxer,实现实时拆分。
    7. 最后释放所有资源,并返回操作结果。

4. 获取 JNI 字符串参数

  • 使用 JNI 接口 GetStringUTFChars 将 Java 字符串转换为 C 语言的 UTF-8 编码字符串,方便后续操作。
    const char *hlsPath = (*env)->GetStringUTFChars(env, hlsPathJ, NULL);
    const char *inputMp4Path = (*env)->GetStringUTFChars(env, inputMp4PathJ, NULL);
    const char *tsPattern = (*env)->GetStringUTFChars(env, tsPatternJ, NULL);
    

5. 检查播放列表文件

  • 目的
    避免对已包含 #EXT-X-ENDLIST 标签的播放列表进行添加写入。
  • 实现
    • 根据平台(Windows 或其他)以正确的方式打开文件。
    • 读取整个文件内容,并检查是否包含 #EXT-X-ENDLIST 字符串。
    • 如果检测到该标签,则释放已分配资源并返回错误提示,阻止后续操作。
    // 检查播放列表文件中是否已包含 EXT-X-ENDLIST(不允许添加)
    {
      FILE *checkFile = NULL;
      // 针对 Windows 平台的处理
      #ifdef _WIN32
        // 使用宽字符打开文件
        ...
      #else
        checkFile = fopen(hlsPath, "r");
      #endif
      if (checkFile) {
        ...
        if (strstr(content, "#EXT-X-ENDLIST") != NULL) {
          ...
          return (*env)->NewStringUTF(env, "Playlist already contains #EXT-X-ENDLIST, cannot append");
        }
        ...
      }
    }
    

6. 打开输入文件与获取流信息

  • 打开文件
    使用 avformat_open_input 打开指定的 MP4 文件。

    if ((ret = avformat_open_input(&ifmt_ctx, inputMp4Path, NULL, NULL)) < 0) {
      print_error("Unable to open input file", ret);
      goto end;
    }
    
  • 获取流信息
    使用 avformat_find_stream_info 分析并获取文件中的所有流信息,便于后续创建输出流。

    if ((ret = avformat_find_stream_info(ifmt_ctx, NULL)) < 0) {
      print_error("Unable to retrieve stream info", ret);
      goto end;
    }
    

7. 分配输出上下文与设置 HLS 选项

  • 分配输出上下文
    利用 avformat_alloc_output_context2 创建一个新的输出上下文,指定使用 hls muxer,输出路径为播放列表文件路径。

    ret = avformat_alloc_output_context2(&ofmt_ctx, NULL, "hls", hlsPath);
    if (ret < 0 || !ofmt_ctx) {
      print_error("Unable to allocate output context", ret);
      goto end;
    }
    
  • 设置 HLS 选项
    通过 av_dict_set 为 muxer 设置相关参数:

    • hls_time:指定每个 TS 分段的时长。
    • start_number:指定分段文件的起始编号。
    • hls_segment_filename:指定 TS 文件的命名模板。
    • hls_flags、hls_list_size、hls_playlist_type:配置添加模式、无限播放列表及事件类型(防止写入结束标签)。
    {
      char seg_time_str[16] = {0};
      snprintf(seg_time_str, sizeof(seg_time_str), "%d", segmentDuration);
      av_dict_set(&opts, "hls_time", seg_time_str, 0);
    
      av_dict_set(&opts, "hls_segment_filename", tsPattern, 0);
      av_dict_set(&opts, "hls_flags", "append_list", 0);
      av_dict_set(&opts, "hls_list_size", "0", 0);
      av_dict_set(&opts, "hls_playlist_type", "event", 0);
    }
    

8. 创建输出流与复制编解码参数

  • 建立流映射
    为每个输入流创建一个映射数组 stream_mapping,过滤掉不需要复制的流(如非视频、音频、字幕流)。
  • 新建输出流
    对于每个有效的输入流:
    • 通过 avformat_new_stream 在输出上下文中创建新的流。
    • 使用 avcodec_parameters_copy 复制输入流的编解码参数到输出流。
    • 设置输出流的时间基准与输入流一致,以保证时间戳的正确转换。
    for (int i = 0, j = 0; i < ifmt_ctx->nb_streams; i++) {
      AVStream *in_stream = ifmt_ctx->streams[i];
      AVCodecParameters *in_codecpar = in_stream->codecpar;
      if (in_codecpar->codec_type != AVMEDIA_TYPE_VIDEO &&
          in_codecpar->codec_type != AVMEDIA_TYPE_AUDIO &&
          in_codecpar->codec_type != AVMEDIA_TYPE_SUBTITLE) {
        stream_mapping[i] = -1;
        continue;
      }
      stream_mapping[i] = j++;
      AVStream *out_stream = avformat_new_stream(ofmt_ctx, NULL);
      if (!out_stream) {
        ret = AVERROR_UNKNOWN;
        goto end;
      }
      ret = avcodec_parameters_copy(out_stream->codecpar, in_codecpar);
      if (ret < 0) {
        print_error("Failed to copy codec parameters", ret);
        goto end;
      }
      out_stream->codecpar->codec_tag = 0;
      out_stream->time_base = in_stream->time_base;
    }
    

9. 打开输出文件并写入文件头

  • 打开输出文件
    判断输出格式是否需要显式打开文件(部分 muxer 不需要),并调用 avio_open 打开目标文件。

    • 针对 Windows 系统,进行宽字符转换后调用 _wfopen 打开文件。
    if (!(ofmt_ctx->oformat->flags & AVFMT_NOFILE)) {
      #ifdef _WIN32
        // Windows 平台处理宽字符
        ...
      #else
        ret = avio_open(&ofmt_ctx->pb, hlsPath, AVIO_FLAG_WRITE);
      #endif
      if (ret < 0) {
        print_error("Unable to open output file", ret);
        goto end;
      }
    }
    
  • 写入文件头
    调用 avformat_write_header 写入文件头信息,此时 muxer 根据前面设置的选项生成 TS 分段文件并更新播放列表。

    ret = avformat_write_header(ofmt_ctx, &opts);
    if (ret < 0) {
      print_error("Failed to write header", ret);
      goto end;
    }
    

10. 读取数据包并写入输出

  • 数据包读取与过滤
    循环调用 av_read_frame 从输入文件中读取数据包。
    • 过滤掉不在流映射中的数据包(例如被标记为不需要复制的流)。
  • 时间戳转换
    为避免时间戳错误,使用 av_rescale_q_rnd 将数据包的 pts、dts 与 duration 从输入流时间基转换到输出流时间基。
    pkt.pts = av_rescale_q_rnd(pkt.pts, in_stream->time_base, out_stream->time_base,
                               AV_ROUND_NEAR_INF | AV_ROUND_PASS_MINMAX);
    pkt.dts = av_rescale_q_rnd(pkt.dts, in_stream->time_base, out_stream->time_base,
                               AV_ROUND_NEAR_INF | AV_ROUND_PASS_MINMAX);
    pkt.duration = av_rescale_q(pkt.duration, in_stream->time_base, out_stream->time_base);
    
  • 写入数据包
    调用 av_interleaved_write_frame 写入转换后的数据包到输出上下文。遇到写入错误时打印错误信息并中断循环。
    ret = av_interleaved_write_frame(ofmt_ctx, &pkt);
    if (ret < 0) {
      print_error("Failed to write packet", ret);
      break;
    }
    

11. Trailer 写入与资源释放

  • Trailer 写入
    注释中提到不调用 av_write_trailer 是为了避免 muxer 写入 EXT-X-ENDLIST,这样可以允许后续添加 TS 分段到播放列表。

    // Note: Not calling av_write_trailer will prevent the muxer from writing EXT-X-ENDLIST, thus allowing subsequent appending
    // av_write_trailer(ofmt_ctx);
    
  • 资源释放
    通过调用相应的释放函数释放:

    • 流映射数组 (av_freep)
    • 输入上下文 (avformat_close_input)
    • 输出上下文及其关联的 I/O 上下文 (avio_closep 和 avformat_free_context)
    • 字典选项 (av_dict_free)
    • JNI 字符串 (ReleaseStringUTFChars)
      确保没有内存泄露。

12. 返回操作结果

  • 错误处理
    如果在操作过程中遇到错误,则返回一个描述 “HLS segmentation failed” 的字符串。
  • 成功返回
    如果一切顺利,则返回成功信息,并在消息中包含播放列表的路径。
    if (ret < 0) {
      return (*env)->NewStringUTF(env, "HLS segmentation failed");
    } else {
      char resultMsg[256] = {0};
      snprintf(resultMsg, sizeof(resultMsg), "HLS segmentation successful: generated new segments and appended to playlist %s", hlsPath);
      return (*env)->NewStringUTF(env, resultMsg);
    }
    

总结

该代码实现了一个 JNI 接口,利用 FFmpeg 库将 MP4 文件转换为 HLS 格式,分割成多个 TS 文件,并添加播放列表。核心流程包括:

  • 检查播放列表状态;
  • 打开并解析输入文件;
  • 根据输入流创建输出流,并复制相关参数;
  • 设置 HLS 相关的参数(分段时长、起始编号、命名模板等);
  • 实时读取、转换和写入数据包;
  • 故意不写入 Trailer 以便后续添加片段;
  • 最后返回操作结果。
Edit this page
Last Updated:
Contributors: Tong Li
Prev
视频合并
Next
split_video_to_hls 支持其他语言